Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3005 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  31  32  33  ..  404  405  406  407  408  409
Auteur Sujet :

[Topic Unique] Nvidia Maxwell GM200 : GTX Titan X et 980 Ti

n°9392380
MEI
|DarthPingoo(tm)|
Posté le 20-01-2015 à 09:10:25  profilanswer
 

Reprise du message précédent :
NVIDIA n'étant pas pressé, c'est pas parce qu'on a des photos d'ES que la carte est proche de la sortie...
 
Ça serait quand même bien la première fois qu'AMD ou NVIDIA enfonce le clou sans riposte au préalable de son adversaire.
 
Après à voir, mais je ne vois vraiment pas la gain ni pour AMD ni pour ses clients d'avoir une carte de ce genre.
 
Parce que moi la seule chose qui me semble intéressante c'est 384-bits + 96 ROP, là le 4K voir les 5K pourraient vraiment commencer à ne pas mourir (du moins sans MSAA :D).


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
mood
Publicité
Posté le 20-01-2015 à 09:10:25  profilanswer
 

n°9392397
aliss
Rhyme the Rhyme Well
Posté le 20-01-2015 à 09:52:21  profilanswer
 

La stratégie n'entrait pas en considération dans mon propos, je tenais juste à dire que TSMC a des soucis tant avec le 20 que le 16nm d'après Digitimes.
 

n°9392442
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-01-2015 à 10:41:16  profilanswer
 


Le GM200 est pourtant bel et bien en 28nm.

n°9392476
MEI
|DarthPingoo(tm)|
Posté le 20-01-2015 à 11:11:05  profilanswer
 

Invite_Surprise a écrit :


Le GM200 est pourtant bel et bien en 28nm.


 
Ce n'est pas parce que le GM200 actuellement leaké en stepping A1 est en 28nm qu'un produit commercial arrivera tel quel. :spamafote:
 
Sortir une puce au max du processus tant en surface qu'en densité de transistor va impliqué un TDP monstrueux. Et pourquoi ? NVIDIA à aucun intérêt commercial à faire ça. :??:
 
EDIT : Il est donc plus probable que l'on aura soit un GM200B/GM210 en 20nm soit directement la prochaine archi. en 20/16nm.


Message édité par MEI le 20-01-2015 à 11:14:03

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9392479
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-01-2015 à 11:16:19  profilanswer
 

La puce est taped-out depuis pas mal de temps déjà et c'est du 28nm.
Le 20nm est inadapté donc tu peux oublier.

n°9392480
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 20-01-2015 à 11:20:01  profilanswer
 

je vais sortir ma propre CG , une GTX1x80 en 16nm accompagnée de 12go capable de faire tourner crysis 3 sur les futur 4k 144hz a 120 fps :whistle: j'y travaille dans mon garage et je vous préviens quand elle est prête a sortir :lol:


---------------
FeedBack
n°9392484
MEI
|DarthPingoo(tm)|
Posté le 20-01-2015 à 11:25:01  profilanswer
 

Tu peux Taped-Out une puce pour un impératif de R&D et d'avancement de projet, tout en ne sortant rien de commercial car non adapté, peu utile, peu rentable.
 
Oui le GM200-A1 est en 28nm. Mais bon NVIDIA ne sort jamais/quasi jamais du A1. Et pour l'instant pas de leak de A2, donc en principe le produit est pas encore finalisé.
 
Le 16nm étant annoncé pour Q3 15, franchement, vu la réserve du GM204 pour la partie Deskstop. Vu qu'en GPU Computing le GK210 est vraiment arrivé.
 
Design un GM200B/GM210 en 16nm est plus que faisable en timing. Même si y'a que quelques cartes au début pendant les 6 premiers mois, ça serait compensé par un vrai gain de perfs du au 16nm...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9392487
aliss
Rhyme the Rhyme Well
Posté le 20-01-2015 à 11:28:11  profilanswer
 

MEI a écrit :

Tu peux Taped-Out une puce pour un impératif de R&D et d'avancement de projet, tout en ne sortant rien de commercial car non adapté, peu utile, peu rentable.
 
Oui le GM200-A1 est en 28nm. Mais bon NVIDIA ne sort jamais/quasi jamais du A1. Et pour l'instant pas de leak de A2, donc en principe le produit est pas encore finalisé.
 
Le 16nm étant annoncé pour Q3 15, franchement, vu la réserve du GM204 pour la partie Deskstop. Vu qu'en GPU Computing le GK210 est vraiment arrivé.
 
Design un GM200B/GM210 en 16nm est plus que faisable en timing. Même si y'a que quelques cartes au début pendant les 6 premiers mois, ça serait compensé par un vrai gain de perfs du au 16nm...


 
Juste par curiosité, tu as un exemple concrêt concernant un gpu haut de gamme utilisant 2 process différents entre les premiers ES et la version commerciale ?

n°9392504
MEI
|DarthPingoo(tm)|
Posté le 20-01-2015 à 11:44:19  profilanswer
 

Est-ce qu'on a déjà été aussi longtemps sur le même process et à devoir zappé un node ?
 
Est-ce qu'on a déjà eu une domination en perf/W aussi franche ? (hormis accident de parcours type FX 5800 ou GTX 480)
 
Du coup c'est dur de ce projeter.
 
Mais en moins d'1 an faire GM204 / GK210 et GM200 sur le même process je trouve pas ça logique non plus. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9392511
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-01-2015 à 11:51:17  profilanswer
 

MEI a écrit :

Mais bon NVIDIA ne sort jamais/quasi jamais du A1.


GM204 c'est sorti en A1, GK110 aussi...

mood
Publicité
Posté le 20-01-2015 à 11:51:17  profilanswer
 

n°9392515
aliss
Rhyme the Rhyme Well
Posté le 20-01-2015 à 11:56:01  profilanswer
 

Pour ce qui est de la durée d'un process, le premier exemple qui me vient à l'esprit, c'est le 40nm, entre l'abandon par TSMC du 32nm et du RV740 à Tahiti, il s'en est passé du temps.

n°9392521
MEI
|DarthPingoo(tm)|
Posté le 20-01-2015 à 12:00:35  profilanswer
 

Le 28 nm a quasi 3 ans et demi et risque de dépassé les 4 ans. Le 40 nm  
a durée au minimum 1 an de moins car fait en gros 2 ans et demi.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9392524
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-01-2015 à 12:02:21  profilanswer
 

GM206 aussi ...
 
Depuis le problème Fermi, nVidia ne sort que des chips en A1 excepté pour le GM107 sorti en A2.

n°9394589
B1LouTouF
PSN : Geo62280 / GT : Mr Geo
Posté le 22-01-2015 à 12:40:18  profilanswer
 

amd se bouge les fesses !
http://www.techpowerup.com/209135/ [...] h-ceo.html


---------------
FeedBack
n°9396991
Activation
21:9 kill Surround Gaming
Posté le 24-01-2015 à 17:05:40  profilanswer
 

ravenloft a écrit :


Bof bof le nvlink. Moyen de communiquer  proprio donc peu de chance que ça arrive en standard sur un Pc de joueur. Tout au plus ça remplacera le pciexpress ou le pont sli pour faire du multigpu mais ça révolutionnera pas grand chose dans le monde du joueur sur PC niveau perf. C'est plus pour le monde pro ou mobile pour Pascal. D'après HFrn, ce sera plus pour Volta que pour Pascal afin que ça ait une utilité sur nos cartes de PCs.

Citation :

Pour contourner ce problème et avoir le contrôle de sa propre interconnexion, Nvidia a mis au point NVLink. Il s'agit d'un bus de communication dont les protocoles sont annoncés similaires à ceux du PCI Express, prévus pour la mémoire unifiée et la cohérence des caches dès la génération 2.0, probablement pour le successeur de Pascal. NVLink pourra offrir 5 à 12X la bande passante du PCI Express, probablement avec une latence réduite. Dans un sens, NVLink peut être vu commme une version musclée et plus flexible du lien SLI.
 
NVLink pourra être implémenté pour la communication entre GPU, le schéma de Nvidia indique qu'au moins 4 GPU pourront ainsi disposer d'une connexion directe. Il sera également possible d'utiliser NVLink pour offrir au GPU un accès plus performant au CPU. Nvidia précise d'ailleurs avoir collaboré avec IBM lors du développement du NVLink et que ce dernier sera implémenté dans de futurs CPU POWER. Nous pouvons également raisonnablement estimer que Nvidia proposera ce support sur ses futurs SoC/CPU dérivés de ses propres cores ARMv8 Denver.


http://www.hardware.fr/news/13628/ [...] -2016.html
 
Les gpus pascal vont être perfs mais à ce rythme là autant attendre Volta aussi. Ce ne sera pas le nvlink mais les perfs qui risquent de nous faire  :love:


 
c'est juste qu'avec nvlink t'aura enfin une vrai mémoire unifié en tout cas coté gpu (sur une mobo grand public base cpu intel ou cpu amd)  sans des artifice "soft" à la cuda pour ça des avis de la reconnaissance par rapport au systeme d'exploitation
 
moi j'y vois la possibilité contrairement aux solutions sli actuel de voir toute les "SMM" des gpu gp104 (ou gp204) comme les unité "SMM" d'un gpu unique
 
si ça marche comme je le pense, finit le merdié des profil sli. Jusqu'à 4 gpu  dans les jeux directx ou pas, opengl ou pas
 
ton "agloméré" de 2, 3 ou 4 gp204  sur ta mobo sera géré comme un big gpu unique et genre finito le mode AFR du sli (ça devrait même simplifier la gestion d'économie d'énergie en multigpu)
 
reste à voir la gueule des "pont" de ces futurs carte graphique (une puce bridge dans un pont pourvu de 4 connecteurs ? )
 
à moins que ça soit une grande carte PCIe avec par exemple 1 ou 2 "slot" d'extension pour mettre des module type mxm (ou du même style) sur le même pcb de carte graphique
ou alors une mobo avec un "bridge" spécifique nvidia (un peu comme le nforce 200 sur mobo socket s1366) qui genre je sais pas dévirait l'usage de pourquoi pas 4 lignes PCIe sur un slot de 16)
 
c'est là que reste la grande question, mais au vu du potentiel que ça peut apporter  [:sunny delight]
 
m'enfin vu la page 22
http://on-demand.gputechconf.com/s [...] nvLink.pdf
visiblement ça serait étonnant que ça soit une mobo avec un bridge spécifique
 
 
page 25 bien sur ça parle de la HBM avec donc si only 1 seul gpu pascal sur une carte, des carte graphique qui seront longue surtout jusqu'au bord du slot PCIe 16x
pour ça que je me dit "pourquoi pas un pcb plus long pour accueillir un slot d'extension type mxm pour la transformer en bi gpu
 
bref faudrait pouvoir voir l'intérieur de leur machine de tests  :whistle:  (et donc un pont actif multiplexe .... ptet que le récent pont sli lumineux c'est pour faire accepter la taille du prochain pont nvlink actif, et commencer à dire aux oem "va falloir vous calmez avec vos ventirad qui bloque la largeur des double pont sli actuel, sinon le futur pont nvlink passera pas"
 
envoyez vos drones espions et des ninjas :o (ou vos blattes téléguidé avec micro-camera sur la carapace :o )
 
rappel du dernier pont sli
 
http://img.laruche.com/1310451-nvidia-sli-bridges-1,bWF4LTUyMHgw.jpg
 
ça peut cacher l'encombrement du futur pont nvlink actif, vu qu'il y aurait un puce multiplexe sur un pont nvlink ? (donc coque pour protéger la puce voir la refroidir si "coque" en alu faisant office de dissipateur
 
pourquoi pas on peut aussi imaginer que le pont serait plus centré au dessus du couple gpu/hbm plutôt que décalé vers les port DP/hdmi/dvi comme les actuel pont sli


Message édité par Activation le 24-01-2015 à 18:22:44
n°9397128
seth-01
Posté le 24-01-2015 à 19:18:50  profilanswer
 
n°9397649
ravenloft
Meilleur jeu du 20ème siècle
Posté le 25-01-2015 à 12:05:44  profilanswer
 

Le contenu de ce message a été effacé par son auteur


---------------
Ravenloft
n°9406583
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2015 à 13:41:42  profilanswer
 

Activation a écrit :

(..)
pour le moment l'ultrahd ça me fait surtout pensé au tout début du "fullhd" ou au final les TVs n'était que 720p / 1080i avec 1 sur 3 pas compatible hdcp pour les blu ray, avec rétroéclairage de merde, fuite lumière  .... bref le même traquenard pour impatients couillons qui ont trop de fric :D
(..)
la haute définition ça ne doit pas être juste l'image, et les dialogues dans un film si possible ça doit être audible (compréhensible surtout) à travers tout les "boum boum" sinon elle sert à quoi la voie centrale si c'est juste pour nous cracher la même bouillie dolby digitaldaubé :o )

 

Je la sent merdique cette année 2015 (avec des logo "4K" et "ready netflix" placardé partout)
(..)
(et ça sera une excuse pour en plus ne pas nous mettre des TV adaptive sync, car faut bien essayer de vous faire changer vos TVs chaque année, c'est connu une TV c'est un produit jetable, comme un flacon de lessive :o )
(..)
 20euros un dvd bouilli de pixel pour balancer sur des tvs de plus en plus fullhd, faut pas venir s'étonner du succès des sites type pirate bay)

 

le "blu ray "4K" fin 2015 ils vont le vendre combien ? 44,90 € ?  [:+skaarj+] et resteront assez con pour mettre encore la galette dvd en bundle dedans pour alourdir le prix (connu si t'achète le ultrahd comme le fullhd c'est pour surtout tout de suite après le visionner en dvd  [:fez666] tu conserve une tv cathodique dans le grenier juste pour cette petite gaterie masochiste :o  [:kyjja:5] (allez mettez aussi la cassette vhs en bundle :o )

:D
 :lol:
[:albertos]
[:mam]
[:ayalou]

Ah ! Maman est arrivé.


Message édité par NoradII le 01-02-2015 à 16:22:42

---------------
valid.x86.fr/575505 /842925 /902578
n°9406866
NoradII
Il y a 17 ans naquit un PC
Posté le 01-02-2015 à 16:22:09  profilanswer
 

µUpdate n°2:

 

-First Post Updated ;

 


Citation :

ce POST est directement dépendant de vos appréciations, suggestions et questions. Alors n'hésitez plus à formuler demandes & recommandations, vos interventions pourraient s'avérer bénéfique !


Message édité par NoradII le 01-02-2015 à 16:22:51

---------------
valid.x86.fr/575505 /842925 /902578
n°9410646
ravenloft
Meilleur jeu du 20ème siècle
Posté le 04-02-2015 à 16:04:35  profilanswer
 

Le contenu de ce message a été effacé par son auteur


---------------
Ravenloft
n°9410723
Eife
Juste avant le .G - Topic de
Posté le 04-02-2015 à 17:03:21  profilanswer
 

ravenloft a écrit :

Avec directx12, les cartes en sli verraient leur mémoire partagée
http://www.comptoir-hardware.com/a [...] i-gpu.html

 

ah ben là ça va vraiment devenir intéressant, pour avoir 7Go +1Go :o


Message édité par Eife le 04-02-2015 à 17:03:33

---------------
Topic de vente de trucs divers
n°9410793
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 04-02-2015 à 17:40:47  profilanswer
 

Ce raccourci moisi :/


---------------
Moi, j'aime pas les signatures
n°9410812
Gein
Posté le 04-02-2015 à 17:57:29  profilanswer
 

+1 :o  
 
Le tweet indique simplement qu'avec Mantle et DX12, il est possible de dédier certaines parties du rendu à un ou plusieurs GPU spécifique.
Donc oui ça permettrait d’exploiter un peu mieux la mémoire mais pas le double.
Car il faut quand même charger les éléments communs au rendu.

n°9410860
Eife
Juste avant le .G - Topic de
Posté le 04-02-2015 à 18:32:59  profilanswer
 

Gein a écrit :

+1 :o  
 
Le tweet indique simplement qu'avec Mantle et DX12, il est possible de dédier certaines parties du rendu à un ou plusieurs GPU spécifique.
Donc oui ça permettrait d’exploiter un peu mieux la mémoire mais pas le double.
Car il faut quand même charger les éléments communs au rendu.


 
est ce que ça pourrait permettre d'avoir 2 GPU différents du coup?
 
genre avoir un gros GPU pour les taches principales, et un GPU différents plus entrée de gamme pour l'AA et autre?


---------------
Topic de vente de trucs divers
n°9410887
Gein
Posté le 04-02-2015 à 18:59:15  profilanswer
 

Amha, je suppose qu'exploiter deux GPU avec des capacités mémoires différentes sera possible.
Tout dépend de comment les devs parviendront à exploiter la souplesse de ces API.
En gros si ce n'est pas prévu dès le départ par les devs, c'est mort.
Et dans ce cas, on dit bonjour au mode AFR  :D

n°9410900
ever_over
Posté le 04-02-2015 à 19:04:24  profilanswer
 

Vu le peu d'effort que font les dev pour le rendu AFR, je ne vois pas pourquoi ils se mettraient tout à coup à consacrer de la ressource à optimiser le rendu SFR. Le multi gpu ça reste marginal.

n°9411196
la_taupe
myope-la-boum
Posté le 04-02-2015 à 23:22:43  profilanswer
 

Si on a laissé tomber le SFR, c'est pas pour rien non plus... Le AFR censé être simple à mettre en oeuvre est déjà mal supporté par une partie des jeux, chaque année et depuis toujours.
 
"That may have been true for the last 25 years of PC gaming," ah bon ? Le SLI Nvidia n'a remplacé le SLI "entrelacé" de 3dfx qu'en 2004. Avant ça avec des Voodoo, le framebuffer était bien doublé. Pour situer, ça nous ramène à DirectX 6 [:typiquement]

n°9411265
Yog Sothot​h
Conchie les religions
Posté le 05-02-2015 à 01:18:53  profilanswer
 

Eife a écrit :


 
est ce que ça pourrait permettre d'avoir 2 GPU différents du coup?
 
genre avoir un gros GPU pour les taches principales, et un GPU différents plus entrée de gamme pour l'AA et autre?


 
En tout cas avec le GPGU sous CUDA ça se fait. Boinc sait gérer plusieurs cartes graphiques de différents modèles.
 

n°9412147
tridam
Profil : Equipe HardWare.fr
Posté le 05-02-2015 à 19:31:36  profilanswer
 

Ce qui est important en multi-GPU c'est que les transferts de données entre GPU soient réduits. Ca limite assez bien ce qu'il est possible de faire sur base des interconnexions actuelles.
 
Ce qu'il serait possible de faire c'est d'avoir un gros GPU qui calcule le rendu de la scène, applique peut-être certains effets de post process, transfère le tout à un iGPU qui complète le post process et se charge de l'affichage.
 
Le problème c'est que pour faire ce genre de chose et toute autre combinaison de façon efficace, il faut que le moteur soit spécifiquement optimisé pour chaque solution, pour répartir la charge suivant les capacités réelles de chaque GPU. Bref sur le papier il y a des choses à faire, en pratique...

n°9422105
Furorento
Posté le 16-02-2015 à 21:49:11  profilanswer
 

Ca commence a faire longtemps qu'on est en 28nm  :wahoo:  
 
La prochaine gen si elle est en pascal (nouvelle archi) + 16nm ( soit un saut de deux gen de gravure, on zappe le 20nm), ca risque d'envoyer du lourd niveau perfs+ conso   :ouch:  
 
J'ai peur d'acheter un pc portable maintenant avec une 970m a cause ca + le throttling, si l'ecart est trop grand plus la chauffe en baisse.   :/

n°9422166
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 16-02-2015 à 23:18:50  profilanswer
 

C'est sûr que le passage au 16/14nm FinFET ça risque de tabasser niveau GPU  [:cerveau nico54]

n°9422168
Kyjja
Liquefaction imminente
Posté le 16-02-2015 à 23:21:46  profilanswer
 

Eife a écrit :


 
est ce que ça pourrait permettre d'avoir 2 GPU différents du coup?
 
genre avoir un gros GPU pour les taches principales, et un GPU différents plus entrée de gamme pour l'AA et autre?


 
ON peut déjà le faire chez Nvidié pour dédié un GPU au PhysX, par exemple.


---------------
HWBot | Conso GPU | Who's who PSU | Mes BD \o/ | GReads | MSpaint
n°9422274
MEI
|DarthPingoo(tm)|
Posté le 17-02-2015 à 08:23:12  profilanswer
 

Marc a écrit :

C'est sûr que le passage au 16/14nm FinFET ça risque de tabasser niveau GPU  [:cerveau nico54]


Attendons de voir la qualité de process.
 
L'avantage c'est qu'au moins après 3 générations avec le même process, c'est que l'optimisation de l'archi. a été obligatoire. En 28nm si on prend les perfs/W d'une 680 vs une 980 la progression à quand même été sympa...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9422275
MEI
|DarthPingoo(tm)|
Posté le 17-02-2015 à 08:23:38  profilanswer
 

Kyjja a écrit :


 
ON peut déjà le faire chez Nvidié pour dédié un GPU au PhysX, par exemple.


On peux, mais en général c'est une mauvaise idée (vu que le GPU qui fait le rendu à besoin rapidement des données PhysX)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9422286
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 17-02-2015 à 08:46:50  profilanswer
 

MEI a écrit :


Attendons de voir la qualité de process.

Un peu d'optimisme :o

Message cité 1 fois
Message édité par Marc le 17-02-2015 à 08:46:58
n°9422329
MEI
|DarthPingoo(tm)|
Posté le 17-02-2015 à 09:53:04  profilanswer
 

Marc a écrit :

Un peu d'optimisme :o


C'est sur que si c'est comme d'hab, on peu imaginer un quasi x2 en perfs, d'autant qu'on verra p'tet l'HBM en masse. Mais bon, pour l'instant on est face à un process plus que mur, exploité à son maxi, on pourrai être déçu des premiers jet en 16nm.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°9422949
Furorento
Posté le 17-02-2015 à 18:34:58  profilanswer
 

MEI a écrit :


C'est sur que si c'est comme d'hab, on peu imaginer un quasi x2 en perfs, d'autant qu'on verra p'tet l'HBM en masse. Mais bon, pour l'instant on est face à un process plus que mur, exploité à son maxi, on pourrai être déçu des premiers jet en 16nm.


 
Tant que la baisse de chauffe reste consequente ca me va, car la le throttling ca reste bien chiant. :/ Je veux un pc portable puissant de moins de 2 kg.

n°9434721
Charles K
Posté le 04-03-2015 à 19:30:18  profilanswer
 

Nvidia Titan X annoncé à la GDC : http://www.theverge.com/2015/3/4/8 [...] the-planet

 

12GB
8 billion transistors

Message cité 2 fois
Message édité par Charles K le 04-03-2015 à 19:32:01
n°9434821
Rhadamenth​os
Ni ba tattabara ba ce
Posté le 04-03-2015 à 21:17:23  profilanswer
 

Charles K a écrit :

Nvidia Titan X annoncé à la GDC : http://www.theverge.com/2015/3/4/8 [...] the-planet
 
12GB
8 billion transistors


 [:cerveau delight] Je prends les mesures dans mon boîtier et j'attends le prix pour redevenir raisonnable.


---------------
"Toutes choses sont dites déjà ; mais comme personne n'écoute, il faut toujours recommencer" - André Gide, Le Traité du Narcisse
n°9434926
bugfx32
Posté le 04-03-2015 à 22:33:55  profilanswer
 

Ca va être dure de justifier le prix de certaine Quadro. A moins que la TitanX coute un rein voir deux... :whistle:


---------------
Ryzen 7800x / Strix 670E  / 64go Gskill / 6 To SSD /Strix 3090 + Titan X / Seasonic P1000 / Full Watercooling
n°9434948
tridam
Profil : Equipe HardWare.fr
Posté le 04-03-2015 à 22:58:09  profilanswer
 
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  31  32  33  ..  404  405  406  407  408  409

Aller à :
Ajouter une réponse
 

Sujets relatifs
Nvidia HD AUDIO le son ne sort quen en 2.1Carte graphique Nvidia sur Antec Sonata Elite
Nvidia GeForce GtX 560[Topic unique] Cooler Master Silencio 550
nVidia GTX 570, SLI et double écran ?Nvidia : pilote perdu puis récupéré ... [ jeu à partir d'un HDD extern
écran noir après installation des pilotes Nvidia.[Topic unique] Cooler Master Enforcer
Probleme carte graphique nvidia geforce gt540mImpossible d'installer pilotes Nvidia [RESOLU]
Plus de sujets relatifs à : [Topic Unique] Nvidia Maxwell GM200 : GTX Titan X et 980 Ti


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR