|
Auteur | Sujet : [Topic Unique] Machine Learning & Data Science |
---|
Publicité | Posté le 23-05-2018 à 12:03:00 |
Darmstadtium Pipoteur grotesque |
Tu proposes de train un AE, ne garder que la partie encodeur, et entraîner un classifier sur les représentations dans l'espace latent. C'est peu ou prou ce que fait un cnn, la fully connected layer à la fin est un classifier linéaire entraîné sur les représentations extraites par les couches convolutionnelles (comme un kernel) . La diff c'est que par backpropagation le classifier et les représentations sont optimisées ensemble pour maximiser la performance finale. --------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Rontgen | J'ai fait MVA + CIFRE |
Millsap | Je redrap |
Darmstadtium Pipoteur grotesque |
--------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Rontgen | Ca vient peut-être de ton dernier layer, vire l'activation (la sigmoide) pour voir ce que ca donne |
Rontgen |
|
Publicité | Posté le 23-05-2018 à 16:13:15 |
Herazor |
|
Herazor |
C'est bien ce qui me semblait mais comme il écrit sans utiliser le conditionnel je voulais en être certain Message cité 1 fois Message édité par Herazor le 23-05-2018 à 17:22:04 |
Voxinat High Frequency Trolling |
--------------- Sah Quel Plaisir |
ardevr1 |
|
draculax | T'es à Orsay en maths fonda ? voire même normalien, si c'est le cas ça m'étonne pas que vous soyez au courant rapidement Message cité 3 fois Message édité par draculax le 23-05-2018 à 18:04:06 |
Voxinat High Frequency Trolling |
Message édité par Voxinat le 23-05-2018 à 18:04:17 --------------- Sah Quel Plaisir |
draculax | J'ai pas candidaté, mais j'aurai ma place sans soucis dans 2 ans |
dr_zaius Simius Mathematicus |
--------------- « Nous sommes tous des farceurs : nous survivons à nos problèmes.» Cioran |
ardevr1 |
|
draculax |
Les écoles favorisent leur étudiants / ceux des écoles partenaires Pour une fois que P6 n'a plus le master le plus populaire c'est dommage Les ulmites ne prendront pas toutes les places aux cachanais Message cité 1 fois Message édité par draculax le 23-05-2018 à 18:37:51 |
dr_zaius Simius Mathematicus |
--------------- « Nous sommes tous des farceurs : nous survivons à nos problèmes.» Cioran |
blixow | Même à l'X il y a plein de monde qui n'a pas le mva |
solal94 Ars longa, vita brevis | drap
Message cité 1 fois Message édité par solal94 le 24-05-2018 à 17:09:11 |
Darmstadtium Pipoteur grotesque |
Pour l'architecture d'autoencodeur ou d'un cnn, effectivement on construit de plus en plus de features (épaisseur) et on sous-échantillonne spatialement à chaque fois (le pooling). On pousse souvent ça jusqu'à avoir une représentation 1x1xD qui est juste un vecteur de R^D, donc une représentation D-dimensionnelle de la donnée d'entrée. Message cité 2 fois Message édité par Darmstadtium le 25-05-2018 à 11:12:10 --------------- Vous pourriez comprendre ainsi pourquoi l'isotropie peut être détournée de son enclave de finalité dès le postulat de base choisie. surunitairedream - 09/06/2013 -- Contrepets |
Tidom |
|
Bébé Yoda | Ça dépend de l'âge, pour moi c'est 45/46k selon les primes/bonus |
korial |
|
Publicité | Posté le |