|
Auteur | Sujet : [Topic Unique] Machine Learning & Data Science |
---|
wartod | Reprise du message précédent : |
Publicité | Posté le 09-11-2018 à 15:06:38 |
Tidom | Comment recruter des data scientists ?
|
Khayam Cinéaste à la noix |
Le livre de François Chollet, développeur de Keras, est excellent. |
arxiviste HFR CIB | A-t-on du HFRien en adtech / martech sur le fil que je pourrais MP pour des questions ? J'ai une ouverture en R&D dans le secteur mais du mal à naviguer le maquis des startups
Pour Python / sklearn je laisse s'exprimer des personnes plus compétentes que moi |
zywiec |
|
Rontgen | Il y a aussi quelques infos et références dans le premier post |
Khayam Cinéaste à la noix |
|
Bébé Yoda | 50% c'est pas de débug sa plateforme/ses outils ? Et 30% attendre que des trucs veuillent bien tourner ?
|
Publicité | Posté le 14-11-2018 à 21:18:50 |
zywiec | J'ai précisé que j'étais ingénieur pour dire que les maths ne me font pas peur mais ma formation est un peu loin et j'ai une grosse pratique en développement. |
Pina Colada |
|
Bébé Yoda |
|
Rasthor |
|
Bébé Yoda |
|
Rasthor |
Bébé Yoda | C'est tellement vrai et tellement frustrant |
Rasthor |
|
Khayam Cinéaste à la noix |
|
kremlin biceps |
--------------- Six seasons and a movie ! |
Oceanborn | Putain, je me mets a Keras (+Tensorflow). Du coup je me mets aussi a Numpy et Pandas. Les fonctions qui font la meme chose mais qui sont appellees differement selon qu'on bosse sur un np array ou un pd df, c'est pas vraiment pratique.
Message cité 2 fois Message édité par Oceanborn le 22-11-2018 à 12:38:19 |
Darmstadtium Pipoteur grotesque |
--------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Rasthor |
|
Darmstadtium Pipoteur grotesque |
Le problème en général quand tu prends un code fp32 et le run en fp16 sans rien changer c'est que les gradients sont trop petits et se retrouvent arrondis à zéro (genre valeurs dénormales, celles inférieures au machine epsilon fp16 etc). Pas de gradient, pas de backprop, donc pas d'apprentissage. Faut scaler le gradient et scaler inversement les updates des poids. Il faut aussi souvent ajuster les hyperparamètres du modèle. --------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Profil supprimé | Posté le 23-11-2018 à 07:57:30 |
Darmstadtium Pipoteur grotesque |
--------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Profil supprimé | Posté le 23-11-2018 à 08:04:40 J'attends d'ailleurs les bfloat avec impatience sur pytorch |
Darmstadtium Pipoteur grotesque |
--------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Bébé Yoda |
Paraît que les Vega sont performantes en fp16 mais j'ai pas pu tester |
Publicité | Posté le |