Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Shop Recherche
1743 connectés 

  FORUM HardWare.fr
  Hardware
  Carte graphique

  Carte graphique pour Deep Learning

 



 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Carte graphique pour Deep Learning

n°10927756
bluewinny6​7
Posté le 13-01-2021 à 10:10:57  profilanswer
 

Bonjour à toutes et à tous,
 
Je viens de passer un coup de fil à Dell pour me faire une offre pour un nouveau PC pour mon entreprise qui doit gérer nos projets deep learning. Budget ~7-9k€.
 
Nous avons demandé deux RTX 3090, mais leur dimension est apparemment trop imposante pour les modèles PC qu'ils proposent actuellement. J'ai donc le choix entre 1 seule 3090, ou bien un dual/triple d'autres modèles.
 
Devrais-je prendre la RTX 3090 (24GB) en question, ou bien faire un dual de RTX Titan (24GB) (par exemple)?
 
Le VRAM est importante dans notre cas car nous la partitionnons pour des apprentissages en parallèle.
 
Bien cordialement

mood
Publicité
Posté le 13-01-2021 à 10:10:57  profilanswer
 

n°10927759
seianec
Posté le 13-01-2021 à 10:17:28  profilanswer
 

Bonjour :)
 
Bon je mets les pieds dans un monde que je ne connais pas, mais j'espère pouvoir aider malgré tout...
 
Si tu dis que la VRAM est importante, à moins que ça ait changé récemment, 2 ou 3 cartes en SLI (ou nvlink) de 10Go de vram par exemple, ne fera que 10Go de VRAM utilisables, et non 20 ou 30.
 
Après je ne sais pas si l'utilisation en deep learning nécessite de mettre en SLI ou pas je t'avoue... Et autre précision, il me semble que nVidia arrête le support du SLI cette année ;)
 
Désolé si je suis à côté de la plaque ;)

n°10927811
kabyll
Posté le 13-01-2021 à 11:54:56  profilanswer
 

Y a des 3080 blower, du coup elles sont moins épaisses et permettent le multi gpu. (Ca sera peut etre au chausse-pied malgré tout)
 
Ms 10 go vs 24 sur les 3090.
 
Ou alors tu attends les possibles 3080 Ti, 20go si les rumeurs sont correctes, et en espérant que des versions blower sortent.


---------------
Infographiste 3D & Post-Production - Freelance
n°10928033
bluewinny6​7
Posté le 13-01-2021 à 16:43:12  profilanswer
 

OK je vois, merci pour vos réponses. Je pense qu'un config avec une seule 3090 fera l'affaire pour l'instant, puis si c'est possible, on ajoutera une 3080 (Ti) par la suite si nécéssaire.

n°10928078
cyberfred
Posté le 13-01-2021 à 18:09:56  profilanswer
 

en effet , je pense que tu peux partir sur une 3090  , pour du deep learning ,une seule carte devrait déjà largement faire l'affaire :jap:
pour la 3080 Ti , rien de sûr au niveau de sa sortie , certains attendaient des annonces au CES mais il n'y a rien eu de nouveau à propos de cette éventuelle 3080 Ti (Nvidia ayant annoncé sa 3060 12 Go en fait)
uniquement des rumeurs et des "contre rumeurs"  pour le moment (carte annulée...)


Message édité par cyberfred le 13-01-2021 à 18:10:52
n°10928317
bluewinny6​7
Posté le 14-01-2021 à 08:59:43  profilanswer
 

Très bien, dans ce cas ce sera une 3090. Par contre, il y a-t-il un avantage d'avoir 2 GPUs pour un système multi-users? Nous serions certainement 2 ou 3 à utiliser le même PC pour du deep learning, ce qui voudrait dire que le partage de la resource (computing, VRAM) devra certainement être bien définie. Même question pour la distribution du training (nous utuilisons Tensorflow).

n°10930504
bluewinny6​7
Posté le 18-01-2021 à 17:58:45  profilanswer
 

Re-bonjour,
 
Je viens de recevoir une offre d'un vendeur avec la config suivante:
https://i.ibb.co/wNgW66t/eweqwr.png
 
Sachant qu'il y aura deux RTX3090, et un i9, je me demande si le PSU est suffisant (1000 Watt)... Quel est votre avis?
 
Je pars du principe que: 1x RTX3090 -> 350W, i9 -> 100-160W si hyperthreading.


Message édité par bluewinny67 le 18-01-2021 à 18:01:16
n°10930527
kabyll
Posté le 18-01-2021 à 18:33:10  profilanswer
 

- 10980XE + x299 = mauvaise idée

 

c'est du niveau d'un AMD 3950x qui coutera presque 2x moins cher

 

10980xe (1100€)
x299 (600€)

 

vs

 

3950x (760€)
X570 (250/300€)

 

(prix compumsa.eu)

 


- tu n'as pas besoin de NV Link, tu ne dois pas faire de SLI
(d'ailleurs je me demande mm si y'a pas un pont inclus avec la carte graphique, j'en ai tjs eu un avec mes cartes)

 

- pr l'alim j'irais sur 1200W pr être sûr
https://www.compumsa.eu/item/CP-902 [...] m-ATX-9825

Message cité 1 fois
Message édité par kabyll le 18-01-2021 à 19:32:07

---------------
Infographiste 3D & Post-Production - Freelance
n°10930553
Nono0000
Posté le 18-01-2021 à 19:16:28  profilanswer
 

Normalement, les cartes avec un Nvlink actif et un Software qui le supporte peuvent faire du memory pooling et donc partager la memoire entre chaque GPU:
https://www.pugetsystems.com/labs/a [...] s-10-1253/
https://www.boxx.com/blog/boxxlabs/ [...] dia-nvlink
https://www.chaosgroup.com/blog/pro [...] -rtx-cards

 

A verifier si c'est toujours le cas sur une 3090 mais je pense que oui.

 

Sur le shop HW, les CM en x299 commencent à 317 euros.


Message édité par Nono0000 le 18-01-2021 à 19:18:43

---------------
CPU: 5960X 4.4Ghz (Uncore: 4.0Ghz) WC HM -- Mem: 4x4Go 3200Mhz 15-16-16-32-2T -- Mobo: Asus X99 Deluxe -- GPU: 1080Ti (GPU: 2000Mhz, VRAM: 5900Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: Asus ROG Swift PG278Q
n°10930641
seianec
Posté le 18-01-2021 à 21:54:33  profilanswer
 

kabyll a écrit :

- 10980XE + x299 = mauvaise idée
 
c'est du niveau d'un AMD 3950x qui coutera presque 2x moins cher
 
10980xe (1100€)
x299 (600€)
 
vs
 
3950x (760€)
X570 (250/300€)
 
(prix compumsa.eu)
 
 
- tu n'as pas besoin de NV Link, tu ne dois pas faire de SLI
(d'ailleurs je me demande mm si y'a pas un pont inclus avec la carte graphique, j'en ai tjs eu un avec mes cartes)
 
- pr l'alim j'irais sur 1200W pr être sûr
https://www.compumsa.eu/item/CP-902 [...] m-ATX-9825


 
Attention cela dit, certains programmes "pro" ne supportent pas officiellement AMD, même si ça marche tout aussi bien on est d'accord.
Mais en cas de bug qui n'aurait rien à voir, ils vont te répondre "c'est de l'AMD ce n'est pas supporté prenez du Intel", une connaissance a eu le coup avec un logiciel de montage pour la télé...

mood
Publicité
Posté le 18-01-2021 à 21:54:33  profilanswer
 

n°10930654
bluewinny6​7
Posté le 18-01-2021 à 22:16:31  profilanswer
 

Merci pour vos réponses. La x299 me revient à  environ 400€, après nous utiliserons le système essentiellement pour du deep learning. J'ai pu voir que le gain en performance avec le NV Link est plutôt minime pour le learning.
 
Il y a apparemment un problème d'approvisionnement en alim chez le vendeur, d'où la CORSAIR 1000W. J'ai peur qu'en full run, avec les 2 cartes 3090 + le CPU, le système claque. Je pense que je vais patienter avant de passer commande et demander un minimum 1200-1300W.

n°10930663
Nono0000
Posté le 18-01-2021 à 22:41:20  profilanswer
 

Oui pour cette utilisation le Nvlink n'est nécessaire que si tu as besoin d'agréger les deux VRAM pour faire un pool commun de 48Go.
Sinon il ne vaut mieux pas activer le multiGPU car cela prend un peu de ressources.


Message édité par Nono0000 le 18-01-2021 à 22:41:57

---------------
CPU: 5960X 4.4Ghz (Uncore: 4.0Ghz) WC HM -- Mem: 4x4Go 3200Mhz 15-16-16-32-2T -- Mobo: Asus X99 Deluxe -- GPU: 1080Ti (GPU: 2000Mhz, VRAM: 5900Mhz) -- Carte Son: X-Fi Titanium Fatal1ty Professional -- SSD: M.2 PCIE XP941 -- Ecran: Asus ROG Swift PG278Q

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Carte graphique

  Carte graphique pour Deep Learning

 

Sujets relatifs
carte SAS PERC h200 + mise en veille disques dursCarte son externe
FLAHS BIOS CARTE MERE ASUS SANS OScarte mère HS ou autre compsant en cause ?
Influence de la carte mère pour le jeuStress test occt carte graphique pas à 100%
Est-ce que une mauvaise carte mère peut brider une config ?Problème Carte graphique démarrage
Plus de sujets relatifs à : Carte graphique pour Deep Learning


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR