Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3276 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  177  178  179  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10427467
bonk1
Elle te plait ma soeur ?
Posté le 13-09-2018 à 23:14:41  profilanswer
 

Reprise du message précédent :
Je me dis que si nVidia explose les perfs de Pascal avec Turing, ils auront réussi un magnifique tour de maître coté marketing.
 
Les leaks "officiels" qui sortent désormais font le buzz, et la sauce monte :-)


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
mood
Publicité
Posté le 13-09-2018 à 23:14:41  profilanswer
 

n°10427468
havoc_28
Posté le 13-09-2018 à 23:15:02  profilanswer
 

obduction a écrit :


 
mais avec le nombre de FPs en plus.
 
Cela va intéresser Havoc28 qui voulait connaitre l'échelle. :)  
 
Si l'échelle n'est pas un fake c'est assez impressionnant.


 
Le tableau avec la RTX 2080 précisément à 60 fps, malheureusement ne confirme rien : /. On reprend le tableau de la GDC au Japon, on attribue arbitrairement des valeurs qui pourraient sembler correcte, et voila.


Message édité par havoc_28 le 13-09-2018 à 23:16:38
n°10427469
bonk1
Elle te plait ma soeur ?
Posté le 13-09-2018 à 23:15:40  profilanswer
 

Solona a écrit :


 
Si le slide sur la nuisance sonore est véridique, cela m'irais.


 
Si ils comparent le ventirad de base des FE précédentes avec ceux de Turing, y'a un gouffre qui peut expliquer cela.


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°10427470
obduction
Posté le 13-09-2018 à 23:16:13  profilanswer
 

ZzDazzleZz a écrit :

@ Obduction,

 

Mainstream  :

 

(Anglicisme) Massivement populaire, grand public, suivi et accepté par la masse.

 

Si pour toi des cartes démarrant hors promos / réduc, à 850 et 1350 euros ça ressemble à du mainstream perso ça me choque un petit peu  :D

 

Par contre des cartes entre 250 et 400 euros ça me choque beaucoup moins.


Avant de répondre, ce serait sympa de lire les messages que tu cites :)

 


Je t'ai souligné en gras ce que tu as loupé.

obduction a écrit :


En fait, tu ne sais pas ce que signifie mainstream. :lol:

 

Turing est une puce mainstream pour nvidia et à ce que je sache la 2080 et la 2080ti, c'est du haut de gamme.
https://www.anandtech.com/show/1284 [...] -hot-chips

Citation :

On Wednesday, when Hot Chips officially announced the program and list of talks for the upcoming Hot Chips 2018 conference in August, among them was the tantalizingly named “NVIDIA’s Next Generation Mainstream GPU.” Offering only just a bit of official confirmation over NVIDIA’s successor to their Pascal-based GeForce 10-series products, the existence of this presentation would suggest a formal announcement within the next couple months.



 

Nvidia a annoncé Turing comme la prochaine géné de gpu mainstream. Vu les prix des turing, on est loin de ta définition.

 

Bref, tout ça pour te redire pour la 3 ou 4ème fois, ce n'est pas parce qu'amd aurait dit que navi serait un chip mainstream que ça ne veut pas dire qu'il n'y aura pas de navi haut de gamme pouvant rivaliser avec le haut de gamme d'nvidia.

 

Pour le moment, on ne sait rien du positionnement de navi et c'est pour ça que je te dis d'éviter d'affirmer des choses que personne ne connait. Cela ne sert à rien de propager des hypothèses invérifiables comme des vérités.

Message cité 1 fois
Message édité par obduction le 13-09-2018 à 23:19:45
n°10427471
obduction
Posté le 13-09-2018 à 23:16:58  profilanswer
 

Solona a écrit :

 

Si le slide sur la nuisance sonore est véridique, cela m'irais.


Les slides sont officielles d'après videocardz.

 
havoc_28 a écrit :

 

Le tableau avec la RTX 2080 précisément à 60 fps, malheureusement ne confirme rien : /. On reprend le tableau de la GDC au Japon, on attribue arbitrairement des valeurs qui pourraient sembler correcte, et voila.


C'est bien pour ça que j'ai écris  "si". Je pense que c'est du fake car quand nvidia communique ces slides sans échelle, ce n'est pas pour communiquer le même ensuite avec une échelle surtout que ça n'a pas la tronche d'un slide officielle d'nvidia. Par contre, le mec qui l'a pondu a choisi une échelle qui donne envie.

Message cité 1 fois
Message édité par obduction le 13-09-2018 à 23:20:30
n°10427476
cschw
Posté le 13-09-2018 à 23:25:43  profilanswer
 

bonk1 a écrit :


 
 
 
Perso vu la chute progressive des 1080Ti vers 600€ neuve, je me dis que c'est un non sens de vendre une 2080 à 800€ pour nvidia si les perfs sont équivalentes.
 
Une proportionalité prix / perfs serait plus cohérente, et pour le coup la 1080 Ti va vers son "vrai prix" : 600 neuve, 400 en occase
 


 
Il y a quelques jours, il y avait encore des 1080 ti Gigabyte à 619 €.... Ça s'y rapproche grandement

n°10427479
snoopy1492
Dans sa niche
Posté le 13-09-2018 à 23:30:40  profilanswer
 

obduction a écrit :


Les slides sont officielles d'après videocardz.

 


 
obduction a écrit :


C'est bien pour ça que j'ai écris  "si". Je pense que c'est du fake car quand nvidia communique ces slides sans échelle, ce n'est pas pour communiquer le même ensuite avec une échelle surtout que ça n'a pas la tronche d'un slide officielle d'nvidia. Par contre, le mec qui l'a pondu a choisi une échelle qui donne envie.


C'est pas un Fake, mais un graph réalisé par un utilisateur de Reddit pour rendre les choses plus "claire"
Sauf que le truc qu'il a zappé c'est que les deux graphs de NVIDIA ne donnent aucune échelle, on ne sait pas si on commence à zéro donc on ne peut absolument rien lire de concret en terme de FPS...

Message cité 1 fois
Message édité par snoopy1492 le 13-09-2018 à 23:31:53

---------------
C'est en buvant la tasse qu'on voit des soucoupes volantes
n°10427481
ZzDazzleZz
Bencheur Oufff
Posté le 13-09-2018 à 23:30:56  profilanswer
 

obduction a écrit :


 
Nvidia a annoncé Turing comme la prochaine géné de gpu mainstream. Vu les prix des turing, on est loin de ta définition.
 
Bref, tout ça pour te redire pour la 3 ou 4ème fois, ce n'est pas parce qu'amd aurait dit que navi serait un chip mainstream que ça ne veut pas dire qu'il n'y aura pas de navi haut de gamme pouvant rivaliser avec le haut de gamme d'nvidia.
 
Pour le moment, on ne sait rien du positionnement de navi et c'est pour ça que je te dis d'éviter d'affirmer des choses que personne ne connait. Cela ne sert à rien de propager des hypothèses invérifiables comme des vérités.


 
On est sur le topic Turing donc je vais éviter de répondre, si tu veux on peux continuer en mp ? :)

n°10427482
Monsieur L​ocke
Posté le 13-09-2018 à 23:32:18  profilanswer
 

drey19 a écrit :

 

Moi c'est pire, j'ai des enfants :D


Tu crois que j'en ai pas ? :D
Et je ne suis pas marié ouf ! :o


---------------
TU Transport Fever
n°10427483
Monsieur L​ocke
Posté le 13-09-2018 à 23:34:57  profilanswer
 

Eife a écrit :

 

Je ferais bien une private-crosstopic-joke là :D

 

mais c'est trop conscrit à l'autre topic pour que je la fasse là mon bon Locke ;)

 
Spoiler :

Quand est ce qu'on arrive à se refaire une binouse nom de nom!?



Le taff bouffe mes dispos et j'en ai jusque février. Faut que je me sorte les doigts pour une prochaine kimouss :D


---------------
TU Transport Fever
mood
Publicité
Posté le 13-09-2018 à 23:34:57  profilanswer
 

n°10427484
obduction
Posté le 13-09-2018 à 23:35:46  profilanswer
 

ZzDazzleZz a écrit :


 
On est sur le topic Turing donc je vais éviter de répondre, si tu veux on peux continuer en mp ? :)


Quand on aura de vraies infos sur Navi permettant d'affirmer quelque chose autre que le fait que ça sorte en 2019 et que ce sera gravé en 7nm TSMC, je serais ravi qu'on en discute en mp ou sur le topic navi. Aucun problème. :jap:  

snoopy1492 a écrit :


C'est pas un Fake, mais un graph réalisé par un utilisateur de Reddit pour rendre les choses plus "claire"
Sauf que le truc qu'il a zappé c'est que les deux graphs de NVIDIA ne donnent aucune échelle, on ne sait pas si on commence à zéro donc on ne peut absolument rien lire de concret en terme de FPS...


 Quand tu rajoutes quelque chose qui n'existe pas comme l'échelle ici, tu crées un faux.
Il aurait du le mettre sans échelle s'il avait été honnête mais sans doute que ça attirerait moins de gens vers ce monsieur.


Message édité par obduction le 13-09-2018 à 23:39:38
n°10427487
snoopy1492
Dans sa niche
Posté le 13-09-2018 à 23:40:22  profilanswer
 

Oui en soit on peut appeler ça un fake (même si je ne pense pas qu'il voulait vraiment tromper les gens), dans le sens où ce n'est clairement pas un slide venant d'Nvidia et que les données sur lesquelles c'est basé sont incomplètes ;)

 

Édit : ortho :O


Message édité par snoopy1492 le 13-09-2018 à 23:42:33

---------------
C'est en buvant la tasse qu'on voit des soucoupes volantes
n°10427491
the_bigboo
Posté le 13-09-2018 à 23:53:11  profilanswer
 

obduction a écrit :

Faut pas attendre du 7nm qu'il révolutionne les perfs. Le 7nm de tsmc étant équivalent au 10nm d'intel, tu auras pas la même évolution qu'entre le 28 et le 14nm.

 

J'ai besoin d'un éclaircissement là... Parce que j'ai vraiment du mal avec ce genre de phrase...  :heink: La finesse de gravure, c'est la finesse de gravure point. Je ne pige pas ce qui est "mieux" là dedans...
Si c'est dans le procédé de fabrication, alors j'en déduit qu'il sera plus difficile d'avoir de produire des puce pouvant encaisser la fréquence. Mais ici il n'est pas question de"performances"
Contrairement à ta phrase qui parle de perfs, et je n'en vois pas le sens sans devoir aussi considérer l'architecture de la puce et pour moi la performance est davantage liée à l'architecture qu'à la finesse de gravure...

 
havoc_28 a écrit :

 

Non, juste que rabâche assez souvent sur ce topique que hors Raytracing/DLSS, en rastérisation classique on aura pas des gains à la Pascal, serte les gains seront correctes pour une nouvelle génération, et en plus on a le premier jet niveau RayTracing et l'utilisation du deeplearning pour le jeu, mais à pondérer avec la forte hausse tarifaire.

 

Je suis à la fois content de cette avancé technique, mais aussi blasé par le fait que niveau visuellement ce premier jet sera pas si impressionnant que cela visuellement (en fonction des sensibilités de chacun, tout comme l'intégration du RayTracing en fonction des jeux)  et qu'il faudra attendre au moins encore une ou 2 générations pour que ça ce généralise et qu'on est des rendus qui commencent à clairement se démarqué de ce que l'on fait sans).

 

J'ai un ami qui a essayé de m'expliquer ça aussi. En un sens, ce nouveau DLSS fait à présent via les unités RT permettra de libérer les coeurs CUDA qui étaient normalement utilisés pour traiter certains effets.
Ce qui reviendrait à dire que DLSS activé, plus de coeurs CUDA sont disponibles pour faire l'étape de rastérisation "classique".
Ce n'est pas un gain de performances obtenu par un rajout de puissance brute (rajout de coeurs CUDA) mais par une optimisation de l'utilisation des unités de calcul.

 

D'un point de vue joueur, je pense que c'est une génération de transition, en revanche ce qui est intéressant, c'est que les dev vont pouvoir faire joujou avec le learning quand même devenu plus accessible.
Ca fait quand même mal de dire ça, mais clairement, plus besoin de payer du Tesla de gamme pro pour vraiment pouvoir apprendre à bidouiller :)
Et dans le milieu pro, ceux qui font de l'animation, je ne peux qu'imaginer le gain de temps potentiels sur les rendus de scène 3D...

 

j'aime jouer, j'ai une GTX 970, je cherche aussi un upgrade, mais là, je n'ai pas besoin de tests pour savoir que pour jouer avec mon niveau de confort, je n'ai pas besoin de Turing, le prix est un frein rédhibitoire à ce stade en ce qui me concerne.
Maintenant je suis en paix dans mon choix, plus de doutes, le chemin est clair, j'attends de voir Navi et Turing 7nm, et l'évolution du marché. Qui sait, je vais peut-être trouver une occasion en or... ?!

Message cité 3 fois
Message édité par the_bigboo le 14-09-2018 à 00:00:50
n°10427492
obduction
Posté le 14-09-2018 à 00:06:03  profilanswer
 

the_bigboo a écrit :

 

J'ai besoin d'un éclaircissement là... Parce que j'ai vraiment du mal avec ce genre de phrase...  :heink: La finesse de gravure, c'est la finesse de gravure point. Je ne pige pas ce qui est "mieux" là dedans...
Si c'est dans le procédé de fabrication, alors j'en déduit qu'il sera plus difficile d'avoir de produire des puce pouvant encaisser la fréquence. Mais ici il n'est pas question de"performances"
Contrairement à ta phrase qui parle de perfs, et je n'en vois pas le sans sans devoir aussi considérer l'architecture de la puce et pour moi la performance est davantage liée à l'architecture qu'à la finesse de gravure...

 



Le problème est que  qu’il n'y a pas dans de norme dans le secteur donc 2 fondeurs qui gravent à 7nm ne veut pas dire que c'est équivalent.
Avant c'est intel qui fixait un peu (c'est une image mais comme ils étaient les leaders, les autres copiaient) le cahier des charges des finesses de gravure mais depuis quelques temps, tsmc et d'autres font la course à celui qui annoncera la finesse la plus petite mais sans pour autant valoir la valeur qu'elle devrait avoir.
Si tu cherches sur le site, il y a des news et articles qui expliquent ça bien.

 

voici une news .
https://www.hardware.fr/news/14946/ [...] -tsmc.html

Citation :

D'après SemiWiki, le 10nm d'Intel et le 7nm de TSMC auraient, après ajustement, une densité comparable.


mais il y a un article d'HFR qui explique en détail les différences. Je n'ai plus le lien en tête donc je te laisse chercher si ça t'intéresse. Je crois qu'HFr est le seul site français à avoir expliqué cela mais en anglais, ça doit se trouver plus facilement.

 

un article en anglais
https://www.semiwiki.com/forum/cont [...] w-now.html

 

En gros faut retenir que tsmc fait la course au chiffre et que le 7nm de tsmc équivaut à ce que sera le 10nm d'intel. On pourrait penser qu'intel a pris beaucoup de retard sur la concurrence mais pour le moment, ils ont juste perdu l'énorme avance qu'ils avaient sur la concurrence avant le 14nm et ont déjà un peu de retard.


Message édité par obduction le 14-09-2018 à 00:13:18
n°10427493
snoopy1492
Dans sa niche
Posté le 14-09-2018 à 00:11:48  profilanswer
 

the_bigboo a écrit :

 

J'ai besoin d'un éclaircissement là... Parce que j'ai vraiment du mal avec ce genre de phrase...  :heink: La finesse de gravure, c'est la finesse de gravure point. Je ne pige pas ce qui est "mieux" là dedans...
Si c'est dans le procédé de fabrication, alors j'en déduit qu'il sera plus difficile d'avoir de produire des puce pouvant encaisser la fréquence. Mais ici il n'est pas question de"performances"
Contrairement à ta phrase qui parle de perfs, et je n'en vois pas le sens sans devoir aussi considérer l'architecture de la puce et pour moi la performance est davantage liée à l'architecture qu'à la finesse de gravure...

 


 

Je ne suis pas bien sûr d'avoir pigé ce qui te gênait dans ce qu'il a dit mais :
1 - la finesse de gravure en nm, c'est devenu un outil marketing.
Le 10nm chez Intel ne sera pas équivalent à du 10nm chez TSMC (qui n'existe pas au demeurant) mais au 7nm qui vient de sortir.
Tout comme le 12nm de TSMC n'est qu'une évolution du 16nm (Certains l'aurait appelé 16nm++ et pas 12nm)...
2 - Une meilleure finesse de gravure, à archi équivalente donne normalement la possibilité de monter en fréquence et/ou de réduire l'enveloppe thermique. Si le processus fonctionne bien.

 

Édit : grilled :D

Message cité 2 fois
Message édité par snoopy1492 le 14-09-2018 à 00:12:42

---------------
C'est en buvant la tasse qu'on voit des soucoupes volantes
n°10427494
bonk1
Elle te plait ma soeur ?
Posté le 14-09-2018 à 00:14:06  profilanswer
 

snoopy1492 a écrit :


 
Je ne suis pas bien sûr d'avoir pigé ce qui te gênait dans ce qu'il a dit mais :
1 - la finesse de gravure en nm, c'est devenu un outil marketing.  
Le 10nm chez Intel ne sera pas équivalent à du 10nm chez TSMC (qui n'existe pas au demeurant) mais au 7nm qui vient de sortir.
Tout comme le 12nm de TSMC n'est qu'une évolution du 16nm (Certains l'aurait appelé 16nm++ et pas 12nm)...
2 - Une meilleure finesse de gravure, à archi équivalente donne normalement la possibilité de monter en fréquence et/ou de réduire l'enveloppe thermique. Si le processus fonctionne bien.


 
Chez Intel la finesse de gravures n'a pas apporté de révolutions aussi marquée que sur le cartes vidéo.
 
Dans notre cas, c'est l'opportunité de mettre plus de cuda core (ou tensors désormais lol) au cm2, donc plus de puissance dans une même taille / enveloppe thermique.
 


---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°10427497
the_bigboo
Posté le 14-09-2018 à 00:20:32  profilanswer
 

snoopy1492 a écrit :

 

Je ne suis pas bien sûr d'avoir pigé ce qui te gênait dans ce qu'il a dit mais :
1 - la finesse de gravure en nm, c'est devenu un outil marketing.
Le 10nm chez Intel ne sera pas équivalent à du 10nm chez TSMC (qui n'existe pas au demeurant) mais au 7nm qui vient de sortir.
Tout comme le 12nm de TSMC n'est qu'une évolution du 16nm (Certains l'aurait appelé 16nm++ et pas 12nm)...
2 - Une meilleure finesse de gravure, à archi équivalente donne normalement la possibilité de monter en fréquence et/ou de réduire l'enveloppe thermique. Si le processus fonctionne bien.

 

Édit : grilled :D

 

Merci à vous deux pour les précisions :jap:
J'essaie juste de donner un sens à ce que je lis sans avoir pris le temps de chercher. En un sens c'est ce qui me plait dans la démarche de demander ici. Faire la part des choses entre l'aspect technique et marketing.
Du coup c'est bien plus clair !

 

J'avais saisi l'intérêt de faire toujours plus fin. Mais pas en quoi une lithographie à priori plus fine pouvait au final avoir la même densité.
J'aurais pas pu si bien le formuler sans vos précisions d'ailleurs  ;) Ok. Marketing.

 

@obduction Merci pour la lecture du soir !


Message édité par the_bigboo le 14-09-2018 à 00:26:25
n°10427500
havoc_28
Posté le 14-09-2018 à 00:53:31  profilanswer
 

the_bigboo a écrit :


 
J'ai un ami qui a essayé de m'expliquer ça aussi. En un sens, ce nouveau DLSS fait à présent via les unités RT permettra de libérer les coeurs CUDA qui étaient normalement utilisés pour traiter certains effets.
Ce qui reviendrait à dire que DLSS activé, plus de coeurs CUDA sont disponibles pour faire l'étape de rastérisation "classique".  
Ce n'est pas un gain de performances obtenu par un rajout de puissance brute (rajout de coeurs CUDA) mais par une optimisation de l'utilisation des unités de calcul.
 
D'un point de vue joueur, je pense que c'est une génération de transition, en revanche ce qui est intéressant, c'est que les dev vont pouvoir faire joujou avec le learning quand même devenu plus accessible.
Ca fait quand même mal de dire ça, mais clairement, plus besoin de payer du Tesla de gamme pro pour vraiment pouvoir apprendre à bidouiller :)
Et dans le milieu pro, ceux qui font de l'animation, je ne peux qu'imaginer le gain de temps potentiels sur les rendus de scène 3D...
 
j'aime jouer, j'ai une GTX 970, je cherche aussi un upgrade, mais là, je n'ai pas besoin de tests pour savoir que pour jouer avec mon niveau de confort, je n'ai pas besoin de Turing, le prix est un frein rédhibitoire à ce stade en ce qui me concerne.
Maintenant je suis en paix dans mon choix, plus de doutes, le chemin est clair, j'attends de voir Navi et Turing 7nm, et l'évolution du marché. Qui sait, je vais peut-être trouver une occasion en or... ?!


 
Sur Turing, par rapport à Pascal on gagne 2 nouveau type d'unités, les tensors core, déjà présent sur Volta dédies à l'apprentissage machine /  "deep learning", les RT cores des cœurs dédiés à l'accélération des rendus en RayTracing.
 
Vivement les dossiers techniques demain, et les tests le 19 si tout va bien :p.
 
Le DLSS semble être une technique se supersampling, ou une partie des pixels à afficher son "prédit" par l'IA (les tensors cores), au préalable nvidia en partenaire avec les devs partenaires, aura "entraîné" les tensors cores par le processus d'apprentissage machine à donc predir les pixels à afficher et ainsi économiser également du travail aux cœurs cuda traditionnels.  
 
Les RT coeurs, eux accélèrent simplement tous les rendus effectuer en Raytracing, illumination, réflexion etc, pas besoin de faire un topos sur les bienfaits du RayTracing je pense, des articles complets existent al dessus.
 
Mais c'est sur que le RayTracing (les RT Cores) et le DLSS (avec les tensors cores), vont permettre de très gros gains dans certains domaines, oui.
 
Après c'est sur que comme génération pionnière, pour les joueurs c'est pas forcément le saint gral en fonction des priorités / besoins.  

n°10427510
ZzDazzleZz
Bencheur Oufff
Posté le 14-09-2018 à 01:53:01  profilanswer
 

Voici la vidéo de la keynote de la GTC au japon :)
 
https://www.youtube.com/watch?v=gi8RIhKPH8E

n°10427521
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 14-09-2018 à 06:39:30  profilanswer
 

pronitron a écrit :

Vous vous rendez compte que cela fait 2 pages que vous parlez de moi ,alors que je vous est invite en mp pour évité le hs ?  
 
Et vous me traité de troll ?  

Ça suffit, bonnes vacances.

n°10427522
jackie-85
What else !
Posté le 14-09-2018 à 06:50:16  profilanswer
 

Aujourd’hui, le jour J , le débarquement :o


---------------
mes ventes
n°10427524
katset
Marcel Poutre
Posté le 14-09-2018 à 07:03:12  profilanswer
 

jackie-85 a écrit :

Aujourd’hui, le jour J , le débarquement :o


Heu.. :whistle:

n°10427530
bonk1
Elle te plait ma soeur ?
Posté le 14-09-2018 à 08:04:31  profilanswer
 

Rigolo comme le bashing sur Turing tourne en fébrilité sur les perfs attendues.
 
Sur un pseudo extrait de keynote (@1.20 min) on parle d'améliorationd e perfs intrinsèque à 50% par cuda core. Donc avec un déport de l'AA via le DLSS et des fréquences plus élevées, le gain en perfs paru hier semble plausible.
 
https://www.youtube.com/watch?v=m1jcPPGlxK8
 
A noter : pascal avait déjà généré un bond de perfs intrinsèque par cuda core. La scalabilité n'est pas qu'horizontale, mais aussi intrinsèque.

Message cité 1 fois
Message édité par bonk1 le 14-09-2018 à 08:05:22

---------------
White List de mes transactions Achats/Ventes : cliquez l'icone de ma config !
n°10427545
sardhaukar
Posté le 14-09-2018 à 08:59:42  profilanswer
 

Quelqu'un sait-il à quelle heure tombe le NDA ?
Les slides de la GTC étaient bien alléchants surtout DLSS.  :love:

n°10427549
cyberfred
Posté le 14-09-2018 à 09:05:29  profilanswer
 

Il me semble que souvent c'est vers 15h non?

n°10427550
Monsieur L​ocke
Posté le 14-09-2018 à 09:07:51  profilanswer
 

C'est bien aujourd'hui que le NDA tombe ou j'ai mal compris ?


---------------
TU Transport Fever
n°10427552
Profil sup​primé
Posté le 14-09-2018 à 09:09:15  answer
 

NDA (jamais 2 sans 3) [:pierre_ermite]

n°10427556
nicolas_ya​d
Spoons made me fat
Posté le 14-09-2018 à 09:20:12  profilanswer
 
n°10427558
campecoy
je ferais mieux d'ecouter
Posté le 14-09-2018 à 09:22:39  profilanswer
 

bonjour
 
il y a deja un Unboxing de la rtx 2080 ( en espagnol ) EVGA
 
https://www.youtube.com/watch?v=3WhG6x8GSsY


Message édité par campecoy le 14-09-2018 à 09:23:01
n°10427559
aliss
Rhyme the Rhyme Well
Posté le 14-09-2018 à 09:23:40  profilanswer
 


 
Il parle de la présentation de l'architecture, pas des tests.  ;)  

n°10427561
obduction
Posté le 14-09-2018 à 09:28:03  profilanswer
 

Monsieur Locke a écrit :

C'est bien aujourd'hui que le NDA tombe ou j'ai mal compris ?


C'est bien aujourd'hui pour les détails de l'architecture.
Pour les tests c'est mercredi prochain.

n°10427562
sardhaukar
Posté le 14-09-2018 à 09:28:33  profilanswer
 

Yes la présentation ! Comment ça fonctionne, quoi en attendre etc.  :p

n°10427564
aliss
Rhyme the Rhyme Well
Posté le 14-09-2018 à 09:30:46  profilanswer
 

sardhaukar a écrit :

Yes la présentation ! Comment ça fonctionne, quoi en attendre etc.  :p


 
On September 14th, reviewers will talk about Turing architecture in greater detail. They will also be allowed publish photos of their samples and release unboxing videos. Two embargoed documents were prepared by NVIDIA for tech-journalists: Turing architecture overview and more GeForce RTX oriented slide deck
 
https://videocardz.com/newz/nvidia- [...] -overclock

n°10427565
Monsieur L​ocke
Posté le 14-09-2018 à 09:34:53  profilanswer
 

Ok, merci de vos réponses. C'est un peu le bazar tout ça :o


---------------
TU Transport Fever
n°10427567
loubar22
Posté le 14-09-2018 à 09:37:33  profilanswer
 

Je lis sur videocardz que la rtx 2080 fe serait plus silencieuse et meilleur refroidissement que la gtx 1080 founder edition.
 
Par contre je n'ai trouvé nul part si la rtx 2080 founder edition dispose du mode 0db comme les customs...
 
Si quelqu'un à la réponse....
 
Merci

n°10427568
Profil sup​primé
Posté le 14-09-2018 à 09:38:04  answer
 

Mais non, c'est très clair au contraire :o
C'est cher, pas dispo., d'une architecture dont on n'aura pas de preuve de son utilité avant les tests (et les jeux), si ça sera stable/utile dans le temps etc.
Tout ce qu'il faut pour plaire quoi avec beaucoup de nouveautés à la clé :D ..

Message cité 1 fois
Message édité par Profil supprimé le 14-09-2018 à 09:39:12
n°10427573
sardhaukar
Posté le 14-09-2018 à 09:48:30  profilanswer
 


 
Tu nous le vend bien.  [:implosion du tibia]  

n°10427579
greenben
Posté le 14-09-2018 à 10:10:24  profilanswer
 

Le truc des slides Nvidia c'est que cela ne nous dit rien. Les Founders Edition sont OC d'origine, et donc tant que l'on aura pas des bench independant de choses comparables... Impossible de se faire une opinion autre que les RTX sont de tres bonnes cartes, mais bon certainement trop cheres pour ce qu'elles apportent et leur utilisation limitée jusqu'a la fin d'année.

n°10427586
lamborghin​i
Posté le 14-09-2018 à 10:22:12  profilanswer
 

Bonjour,
 
Mon ancienne config date (gtx 780m), j'ai commencé à monter un nouveau pc et j'attends aujourd'hui depuis plusieurs mois la sortie des nouvelles cartes Nvidia.
 
Mon choix est déjà fait sur le modèle, mais avec toutes les marques existantes (Asus, MSI, Gigabyte, Zotac), est-ce qu'il y a des marques à déconseiller ou conseiller ?
 
J'ai vu une action sur les cartes Gigabyte en précommande (180 euros de différence) par rapport aux concurrents mais est-ce que cette marque est fiable ?
Mon but est de garder la carte plusieurs années, alors le tarif n'est pas ce qui est bloquant pour moi, mais 180 euros, c'est 180 euros quand même.
 
Sinon, merci pour vos commentaires techniques assez intéressants en lisant toutes ces pages.

n°10427588
emeralfish
Posté le 14-09-2018 à 10:25:34  profilanswer
 

lamborghini a écrit :

Bonjour,
 
Mon ancienne config date (gtx 780m), j'ai commencé à monter un nouveau pc et j'attends aujourd'hui depuis plusieurs mois la sortie des nouvelles cartes Nvidia.
 
Mon choix est déjà fait sur le modèle, mais avec toutes les marques existantes (Asus, MSI, Gigabyte, Zotac), est-ce qu'il y a des marques à déconseiller ou conseiller ?
 
J'ai vu une action sur les cartes Gigabyte en précommande (180 euros de différence) par rapport aux concurrents mais est-ce que cette marque est fiable ?
Mon but est de garder la carte plusieurs années, alors le tarif n'est pas ce qui est bloquant pour moi, mais 180 euros, c'est 180 euros quand même.
 
Sinon, merci pour vos commentaires techniques assez intéressants en lisant toutes ces pages.


 
De mon côté, même si elles sont plus chère, je ne jure que par EVGA notamment pour la qualité de leur SAV et la réactivité du service client, critère important à mes yeux, surtout quand on voit le prix des cartes.

n°10427589
aliss
Rhyme the Rhyme Well
Posté le 14-09-2018 à 10:30:23  profilanswer
 

lamborghini a écrit :

Bonjour,
 
Mon ancienne config date (gtx 780m), j'ai commencé à monter un nouveau pc et j'attends aujourd'hui depuis plusieurs mois la sortie des nouvelles cartes Nvidia.
 
Mon choix est déjà fait sur le modèle, mais avec toutes les marques existantes (Asus, MSI, Gigabyte, Zotac), est-ce qu'il y a des marques à déconseiller ou conseiller ?
 
J'ai vu une action sur les cartes Gigabyte en précommande (180 euros de différence) par rapport aux concurrents mais est-ce que cette marque est fiable ?
Mon but est de garder la carte plusieurs années, alors le tarif n'est pas ce qui est bloquant pour moi, mais 180 euros, c'est 180 euros quand même.
 
Sinon, merci pour vos commentaires techniques assez intéressants en lisant toutes ces pages.


 
La meilleure chose à faire est d'attendre les tests des cartes custom.
 
Chaque fabricant est capable de rater une carte, y compris les plus (sur)cotés.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  177  178  179  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)