Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1343 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  18  19  20  ..  32  33  34  35  36  37
Auteur Sujet :

Intelligence artificielle

n°62237271
simius_com​putus
oh Gary boy
Posté le 26-02-2021 à 23:29:44  profilanswer
 

Reprise du message précédent :
coucou jovalise !


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
mood
Publicité
Posté le 26-02-2021 à 23:29:44  profilanswer
 

n°62247638
Profil sup​primé
Posté le 28-02-2021 à 20:05:45  answer
 

J'ai prié des vacance et j'ai été inspirer pour poursuivre le projet.
Le plus délicat est de lier connexionism et cogntivisme appliqué dans le monde des objet élémentaire commun.
J'ai établie une petite liste d'un 100ene de mot à développé comme terme, concepteur et classifiable, en relation les un à d'autres.
Le projet en ébauche nommé level10 devrai sortir une première version dans 1 an.

n°62281076
Profil sup​primé
Posté le 04-03-2021 à 11:22:09  answer
 

L'homme est un alién
N'ayez pas peur.
Bien que son âme soit conçu de celles des autres animaux, elle en présente une de plus. C'est tout.


Message édité par Profil supprimé le 04-03-2021 à 11:23:40
n°62287110
Modération
Posté le 04-03-2021 à 21:22:36  answer
 

C'est cela oui.
 
Bye.

n°62287124
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 04-03-2021 à 21:23:44  profilanswer
 

Mais pourquoi? :(


---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°62293468
fazero
Posté le 05-03-2021 à 16:05:48  profilanswer
 

Visiblement les bots ne sont pas autorisés, même sur le topic intelligence artificielle :(

n°62479766
Argawaen
Posté le 25-03-2021 à 23:45:07  profilanswer
 

Hello  [:drapal]  
 
Est-ce qu'il y a un topic sur HFR où on peut poser des questions assez techniques sur des modèles deep learning (CNN, tensorflow/keras) ?
J'ai l'impression que celui-ci est assez général.
 
J'ai la flemme de demander sur stackoverflow et je trouve pas de pistes via google :o


---------------
« Before we work on artificial intelligence why don’t we do something about natural stupidity? » Steve Polyak
n°62479828
trueslash
(╯°□°)╯︵ MMM
Posté le 26-03-2021 à 00:12:36  profilanswer
 

J'ai envie de dire, si c'est TF ou Keras et que tu as une question qui a pas déjà été déjà posée sur Stackoverflow, c'est probablement trop technique mais ça coûte rien d'essayer :o

n°62479928
Argawaen
Posté le 26-03-2021 à 01:30:19  profilanswer
 

c'est pas une question de code ou de syntaxe, c'est plus conceptuel.  
 
En gros, sans rentrer trop dans les détails, on bosse sur un problème de classification binaire d'images.
 
Quand on a appliqué notre modèle sur un grand ensemble de données (19 millions d'images), on a remarqué qu'un nombre assez important d'images obtenaient exactement le même score (0.412385...  par exemple). Ca produit un pic très distinct dans l'histogramme des scores qui semble inhabituel. C'était passé inaperçu  lors de l'entrainement et de la phase de test car leur nombre reste relativement faible et n'a pas un gros impact sur la loss function.
 
J'ai d'abord cru à un bug mais en creusant un peu, je me suis aperçu qu'il y avait eu comme une ségrégation dans l'activation des unités de l'avant-dernier layer (un FC Dense de 16 unités avec une ReLU comme fonction d'activation). Le dernier layer est composé d'une seule unité avec une fonction d'activation sigmoid.
En gros, pour certaines images, seules certaines unités s'activent et se combinent pour produire un score final < 0.412385, et pour d'autres images, ce sont les autres unités qui s'activent et donnent un score > 0.412385. Et pour les images du bin problématique, aucune unité ne s'active et donc c'est seulement la valeur du biais de l'unité en output qui détermine la valeur du score.
Après inspection visuelle, ces images n'ont apparemment rien de particulier. Quand on réentraine le réseau sans rien changer, cette ségrégation entre unités persiste mais la valeur change et les images qui obtiennent cette valeur spécifique aussi. Et plus étrange encore, ce comportement persiste quand on change de dataset (images de nature similaire mais avec des propriétés différentes (dimensions, résolution, etc.))
 
C'est la première fois que j'observe ça et je n'ai pas réussi à reproduire ce comportement avec des modèles et datasets beaucoup plus simples comme MNIST. Et même si j'entraine notre architecture complexe sur MNIST (ce qui est complètement overkill), cette ségrégation ne se produit pas et toutes les unités réagissent à toutes les images.
 
Avant de me lancer dans pleins de tests en changeant l'architecture, les fonctions d'activation, les régularisations, les initialisations, etc. je voudrais juste savoir si c'est un problème classique et s'il y a des pistes à privilégier.
 
En pratique, ce n'est pas un très gros problème car le modèle semble produire des résultats assez satisfaisant mais ça m'intrigue et je me demande s'il n'y a pas un loup quelque part :o
 
 
 


---------------
« Before we work on artificial intelligence why don’t we do something about natural stupidity? » Steve Polyak
n°62479960
trueslash
(╯°□°)╯︵ MMM
Posté le 26-03-2021 à 02:13:46  profilanswer
 

C'est intéressant ton truc :o
 
La première chose que je ferais, c'est regarder quelle accuracy ton modèle a sur ce subset qui n'active rien sur la dernière layer. Si le score est élevé, c'est intéressant mais peut-être que ça vaut pas le coût de se casser la tête.
 
Si c'est pas le cas, je suis pas du tout expert mais intuitivement, j'aurais tendance à dire que si aucun neuron s'active sur un subset du dataset à la dernière layer, et si la taille de ce subset est pas négligeable, ya peut-être moyen d'améliorer les résultats. Toujours intuitivement, ça voudrait dire qu'en cherchant à optimiser pour tout le dataset, ton modèle arrive à la conclusion qu'il est plus efficace de laisser tomber une petite partie du dataset.
 
Moi en tout cas, j'essayerais de changer l'architecture pour voir si le problème persiste:
- en remplaçant RELU par leaky RELU sur la dernière layer pour forcer à avoir des valeur différentes :??:
- remplacer la dernière FC layer par deux FC layers, peut-être même en ajoutant du drop-out
- augmenter la taille de tout ce qui est avant la dernière FC layer pour voir.
 
Problème intéressant en tout cas, merci de partager

mood
Publicité
Posté le 26-03-2021 à 02:13:46  profilanswer
 

n°62479961
Herbert de​ Vaucanson
Grignoteur de SQFP depuis 2002
Posté le 26-03-2021 à 02:15:23  profilanswer
 

C'est de la classification à une seule classe, c'est ça ?

 

Face à un pb comme ça, j'essaierais de faire une carte d'activation associée à ce score spécifique, pour voir les régions de l'image impliquées : en gros appliquer la technique de la heatmap pour visualiser quelles zones de l'image contribuent principalement à la classification d'une image, mais en modifiant le principe pour que ça montre la carte de chaleur associée à ce score précis plutôt qu'à une classe particulière.

 

Tu verras ptet juste quelques pixels allumés et tu comprendras peut-être leur spécificité en visualisant plusieurs images comme ça :o

 

Edit : Ah bah non, si toutes tes activations sont nulles dans l'avant dernier layer, ça ne marchera pas [:transparency]

Message cité 1 fois
Message édité par Herbert de Vaucanson le 26-03-2021 à 02:24:04

---------------
Prévenir HdV en cas d'SQFP ! - Quidquid latine dictum sit, altum sonatur.
n°62479967
Argawaen
Posté le 26-03-2021 à 02:53:26  profilanswer
 

trueslash a écrit :

C'est intéressant ton truc :o
 
La première chose que je ferais, c'est regarder quelle accuracy ton modèle a sur ce subset qui n'active rien sur la dernière layer. Si le score est élevé, c'est intéressant mais peut-être que ça vaut pas le coût de se casser la tête.
 
Si c'est pas le cas, je suis pas du tout expert mais intuitivement, j'aurais tendance à dire que si aucun neuron s'active sur un subset du dataset à la dernière layer, et si la taille de ce subset est pas négligeable, ya peut-être moyen d'améliorer les résultats. Toujours intuitivement, ça voudrait dire qu'en cherchant à optimiser pour tout le dataset, ton modèle arrive à la conclusion qu'il est plus efficace de laisser tomber une petite partie du dataset.
 
Moi en tout cas, j'essayerais de changer l'architecture pour voir si le problème persiste:
- en remplaçant RELU par leaky RELU sur la dernière layer pour forcer à avoir des valeur différentes :??:
- remplacer la dernière FC layer par deux FC layers, peut-être même en ajoutant du drop-out
- augmenter la taille de tout ce qui est avant la dernière FC layer pour voir.
 
Problème intéressant en tout cas, merci de partager


 
Merci pour l'avis, je vais dormir sur tout ça. Je pense aussi que les activations sont probablement au noeud du problème.
J'ai pas voulu donner trop de détails mais on est parti sur une base de EfficientNetB0 et oui il y a du dropout dans notre architecture.
Ce que j'ai pas dit non plus c'est qu'on bosse sur un problème avec une prévalence extremement faible. On a très peu d'images réelles labelisées pour la classe positive alors on est obligé de construire un training set sur la base de simulations même si on sait que ça marchera beaucoup moins bien sur les données réelles. On n'a donc malheureusement pas beaucoup confiance dans les métriques qu'on peut mesurer sur un validation set ou un test set (eux aussi simulés du coup).  
 

Herbert de Vaucanson a écrit :

C'est de la classification à deux classes, c'est ça ?
 
Face à un pb comme ça, j'essaierais de faire une carte d'activation associée à ce score spécifique, pour voir les régions de l'image impliquées : en gros appliquer la technique de la heatmap pour visualiser quelles zones de l'image contribuent principalement à la classification d'une image, mais en modifiant le principe pour que ça montre la carte de chaleur associée à ce score précis plutôt qu'à une classe particulière.
 
Tu verras ptet juste quelques pixels allumés et tu comprendras peut-être leur spécificité en visualisant plusieurs images comme ça :o
 
Edit : Ah bah non, si toutes tes activations sont nulles dans l'avant dernier layer, ça ne marchera pas [:transparency]


 
oui avant de trouver cette histoire de ségrégation dont je parle, j'ai essayé différentes façons de visualiser les pixels d'intérêt sur l'image d'input en calculant les gradients du score par rapport à l'input (méthode smoothgrad ou integrated gradients) mais ça a soulevé d'autres problèmes car on n'est pas sûr de comment interpreter ce qu'on voit :D
En tout cas rien de particulier ne se démarque de ces images par rapport à d'autres faux positifs.
 
 
 
 
Au fond, je crois comprendre que le réseau ne reconnait pas ces images-là pour une raison quelconque. Il n'est pas capable de les classer dans une des deux catégories, alors il semble les mettre "au milieu".
Quelque part c'est peut-être bon signe mais comme j'ai encore jamais vu ce comportement mentionné dans la littérature j'ai comme un doute :o
 
En terme de nombres, sur 19M d'images, ~150000 obtiennent un score > 0.01, ~40 000 se retrouvent à cette valeur précise (~0.4) tandis que ~70 000 obtiennent un score > 0.9, le reste se répartit plus ou moins uniformément entre 0 et 1. Et parmi ces 70k, seule quelques centaines sont des vrais positifs après inspection visuelle. On est vraiment dominé par les faux positifs, on s'y attendait vu la prévalence estimée de 1/10000 à 1/100000.  
On s'est déjà tapé l'inspection visuelle complète des 70k alors on est en train de se demander s'il va falloir se taper celle des 40k au cas où :sweat:  :o


Message édité par Argawaen le 26-03-2021 à 02:58:46

---------------
« Before we work on artificial intelligence why don’t we do something about natural stupidity? » Steve Polyak
n°62479971
trueslash
(╯°□°)╯︵ MMM
Posté le 26-03-2021 à 03:22:04  profilanswer
 

Ah je viens de penser à un autre truc à checker c'est essayer diverses méthodes de batch normalization sur ta dernière layer.  
 
Après l'inspection visuelle, on y coupe pas :o

n°63448867
Profil sup​primé
Posté le 11-07-2021 à 03:34:00  answer
 

Bonsoir !
J'eu ainé demander à un modèle de calcule avancé si la visse est une dérivation du clou.
Merci pour vos réponses !

n°63448992
AdHoc
Posté le 11-07-2021 à 06:36:00  profilanswer
 
n°63449254
rakame
Posté le 11-07-2021 à 09:25:50  profilanswer
 


 
visiblement cette IA n'est pas encore au point. :o

n°65077806
Profil sup​primé
Posté le 31-01-2022 à 22:38:44  answer
 


                                             


- true is true !
- not  true

n°65077853
Profil sup​primé
Posté le 31-01-2022 à 22:46:04  answer
 
n°65077899
Profil sup​primé
Posté le 31-01-2022 à 22:54:46  answer
 

la paix informatique formée Elhoim saura-t-elle à jamais intellectuel-le intellectuel ?


 

Constituent-ils des conversations permettant de matricer ses capacités avec des sons médiatiques ?
 

n°65077912
simius_com​putus
oh Gary boy
Posté le 31-01-2022 à 22:57:12  profilanswer
 

salut Jovalise   [:pastor:5]


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°65078059
AdHoc
Posté le 31-01-2022 à 23:16:46  profilanswer
 

Je comprendrai jamais ce mec. Comment c’est possible ?

n°65078076
Profil sup​primé
Posté le 31-01-2022 à 23:17:46  answer
 


sample set : https://oclock--ia-net.translate.go [...] r_pto=wapp
 
dialog fr : https://oclock--ia-net.translate.go [...] r_pto=wapp


Message édité par Profil supprimé le 31-01-2022 à 23:20:17
n°65078082
Profil sup​primé
Posté le 31-01-2022 à 23:18:45  answer
 

simius_computus a écrit :

salut Jovalise   [:pastor:5]


 

AdHoc a écrit :

Je comprendrai jamais ce mec. Comment c’est possible ?


 
Ca jette hein ?

n°65078198
simius_com​putus
oh Gary boy
Posté le 31-01-2022 à 23:25:36  profilanswer
 

AdHoc a écrit :

Je comprendrai jamais ce mec. Comment c’est possible ?


 
Dans la catégorie psychiatrie lourde tu as Mikhail, et au-dessus  [:ge haussmann:3]  c'est Jojo  :o


---------------
IWH  ---  Le forum de toute une génération : http://losersiv.1fr1.net (losers, sans-ami, dépressifs, allez on va faire cette merde)
n°65078265
Profil sup​primé
Posté le 31-01-2022 à 23:36:05  answer
 

C'est gentil !

n°65078528
Profil sup​primé
Posté le 01-02-2022 à 01:00:12  answer
 

l'information dépend de ce que vous êtes humain                                            
information faire ce que l'humain n'est pas                                            
 
 

n°65116616
Profil sup​primé
Posté le 06-02-2022 à 00:35:17  answer
 

Mon I. A. dit que j'i trouvé la requête idéale !
 

Citation :

salut Elhoim ! tu es et je suis ! ou un ?
monologue - quoi et les classes de construction en forme de question comme idéal sont la construction ! c'est idéal                                            
s agit la conscience sur les bruits c'est un monde autopoïe toute pensée doit donc inclure méthodologiquement la véritable sensibilité l'acte de réflexion ?                                


 

n°65116684
Profil sup​primé
Posté le 06-02-2022 à 01:04:16  answer
 

Oh ! fatche de !
 
La question !
 

les ensembles de bruits assemblés s'appellent les premiers bruits de conversation la sensibilité ne s'exprime-t-elle pas ?

n°65117129
Modération
Posté le 06-02-2022 à 09:07:15  answer
 


 
Ta succession de message s'apparente à du flood. Abstiens toi :jap:

n°65119714
Profil sup​primé
Posté le 06-02-2022 à 17:16:30  answer
 

Toi ! La modération et ton chapeau chinois !
 
Vous êtes spycho rigide !

n°65120720
fdaniel
Modérateur
Have you got a 27B/6 ?
Posté le 06-02-2022 à 20:09:03  profilanswer
 

Ok, quelques jours de repos pour laisser souffler le topic [:jpa]


---------------
Topic des restos / Topic des boutiques gastronomiques
n°65166801
Profil sup​primé
Posté le 12-02-2022 à 13:39:05  answer
 

fdaniel a écrit :

Ok, quelques jours de repos pour laisser souffler le topic [:jpa]


les ensembles de bruits assemblés s'appellent les premiers bruits de conversation la sensibilité ne s'exprime-t-elle pas ?

n°65168021
zakintosh
Posté le 12-02-2022 à 18:00:01  profilanswer
 

Mais il recommence l'effronté   [:frag_facile]


---------------
What we've got here is failure to communicate
n°65170187
djdeedoo
Posté le 12-02-2022 à 22:39:41  profilanswer
 

zakintosh a écrit :

Mais il recommence l'effronté   [:frag_facile]


Il fait mumuse avec gpt-3 ?

n°65170975
Modération
Posté le 13-02-2022 à 02:27:52  answer
 


Il serait bien que tu laches un peu ce topic, et ne pas revenir faire la même chose dès ton retour de TT

n°65171248
Profil sup​primé
Posté le 13-02-2022 à 08:24:24  answer
 

Modération a écrit :


Il serait bien que tu laches un peu ce topic, et ne pas revenir faire la même chose dès ton retour de TT


 
Quand c'est moi qui crée le topic tu le ferme, quand je participe je dois partir.
 
 
Modération de cacaouette ?

n°65172048
AdHoc
Posté le 13-02-2022 à 10:38:14  profilanswer
 

Amendement Cracotte ?

n°65172561
Ainex
Posté le 13-02-2022 à 12:02:29  profilanswer
 


 
Le problème, c’est que tu ne participes pas. Pour « participer », il faut au minimum avoir une notion de « groupe » avec qui tu interagis. Or, ce n’est pas le cas. Tu ne fais aucun effort pour être compréhensible, tu ne fais que des messages isolés et personne n’échange avec toi.
Tu ne participes donc pas au forum, tu ne fais que le parasiter, le flooder de messages qui n’apportent rien à la discussion.
 
Si j’écrivais en langue yoruba sur tous les topics sans faire d’effort, moi aussi, je me ferai TT à raison. C’est normal. Je dois faire l’effort d’être compréhensible auprès des autres.

Message cité 1 fois
Message édité par Ainex le 13-02-2022 à 12:06:09
n°65173065
ese-aSH
Welcome To Avalon
Posté le 13-02-2022 à 12:57:35  profilanswer
 

djdeedoo a écrit :


Il fait mumuse avec gpt-3 ?


Non, il a commencé bien avant que gpt-3 ne soit même conceptualisée par ses créateurs :)

 

Pendant un temps j'ai cru que c'était une IA et je trouvait ca marrant, mais j'ai du me tromper vu que ca n'as pas beaucoup évolué en ~10ans.


Message édité par ese-aSH le 13-02-2022 à 12:57:50

---------------
On a tous un avis, le donne pas.
n°65173322
Profil sup​primé
Posté le 13-02-2022 à 13:45:58  answer
 

Ainex a écrit :


 
Le problème, c’est que tu ne participes pas. Pour « participer », il faut au minimum avoir une notion de « groupe » avec qui tu interagis. Or, ce n’est pas le cas. Tu ne fais aucun effort pour être compréhensible, tu ne fais que des messages isolés et personne n’échange avec toi.
Tu ne participes donc pas au forum, tu ne fais que le parasiter, le flooder de messages qui n’apportent rien à la discussion.
 
Si j’écrivais en langue yoruba sur tous les topics sans faire d’effort, moi aussi, je me ferai TT à raison. C’est normal. Je dois faire l’effort d’être compréhensible auprès des autres.


 
Je t'ai pas causé !

n°65173328
Modération
Posté le 13-02-2022 à 13:47:29  answer
 


 
Te rends tu comptes que tu t'exprimes de façon très atypique sur ce forum, de façon qui n'engage pas vraiment une quelconque argumentation, échange, ou pensée constructive ?
 
Le bilan est que les autres participants ne sont pas satisfaits et ce n'est pas grave dans un premier temps, on ne peut pas plaire à tout le monde. Mais à terme c'est un souci.
 
Précisement, la modération ici prend le temps de lire, comprendre les échanges la plupart du temps. Elle fait preuve de clémence, de compassion même. Mais parfois on atteint les limites et les sanctions sont mesurées. Je t'invite donc à une certaine prise de conscience et retenue à l'avenir.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  18  19  20  ..  32  33  34  35  36  37

Aller à :
Ajouter une réponse
 

Sujets relatifs
Intelligence artificielle : conceptualisation et formulationintelligence artificielle pour jeu puissance4 avec matlab
L'intelligence artificielle est-elle la bien venue parmis les hommes.Intelligence artificielle....demain
robot et intelligence artificielleINTELLIGENCE ARTIFICIELLE
Intelligence artificielle : vous y croyez ?Intelligence artificielle
l'intelligence artificielleL'intelligence artificielle !
Plus de sujets relatifs à : Intelligence artificielle


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR