Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2664 connectés 

 


Utilisez-vous du machine learning dans votre job ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  128  129  130  131  132  133
Auteur Sujet :

[Topic Unique] Machine Learning & Data Science

n°5258455
NotComplia​nt
Posté le 26-09-2023 à 09:55:48  profilanswer
 

Reprise du message précédent :
On a une hard deadline debut octobre pour un abstract, on a ni data d'entrainement ni data de validation. C'est moi qui suis censé faire l'algo [:poutrella][:poutrella] [:poutrella]

mood
Publicité
Posté le 26-09-2023 à 09:55:48  profilanswer
 

n°5259490
fazero
Posté le 29-09-2023 à 00:09:47  profilanswer
 

o_BlastaaMoof_o a écrit :


C’est de la merde.
 
Oubliez la data science et le ML, c’est déjà le passé. Ce sont des jobs de commodité, il n’y a quasiment plus de différenciateur à chercher.
 
À mon sens, pour quelqu’un qui se lance maintenant, les pistes suivantes sont les plus intéressantes. L’avenir dira si j’ai raison ou non :o
- Avoir une double expertise marquée : être excellent dans un domaine technique autre que la data, et y ajouter une expertise data/IA.
- L’IA à base de LLM et IA génératives. Tout le monde ne parle que de ça dans les entreprises et la data science « traditionnelle » va très vite être reléguée à une pratique démodée.
 
On est en train de vivre un changement de paradigme. Dans la data science, jusque-là, on cherchait des individus capables de créer les meilleurs modèles et de les industrialiser. C’est fini désormais : le modèle est fourni sur étagère par un tiers, le plus souvent avec de quoi l’industrialiser.


Ceci.
 
Là où on peut avoir de la valeur ajoutée c'est pour faire le lien entre le business et la technique (côté business ils pipent rien à la tech et côté tech ils en ont RAB du business). Mais je sais pas trop à quel type de poste ça correspondrait.
 
Worst Case Scenario je ferai du dev :o

n°5259530
NotComplia​nt
Posté le 29-09-2023 à 09:16:23  profilanswer
 

fazero a écrit :


Ceci.
 
Là où on peut avoir de la valeur ajoutée c'est pour faire le lien entre le business et la technique (côté business ils pipent rien à la tech et côté tech ils en ont RAB du business). Mais je sais pas trop à quel type de poste ça correspondrait.
 
Worst Case Scenario je ferai du dev :o


 
Le dev c'est déjà fini avec les indiens powered avec chat gpt  [:notcompliant]

n°5259599
fazero
Posté le 29-09-2023 à 09:50:40  profilanswer
 

Jpense pas que ChatGPT rende les mauvais employables, par contre il va multiplier par 10 la productivité des bons et ouais y'aura peut-être pas du taf pour tout le monde :o

n°5260080
flyingchai​r
Posté le 30-09-2023 à 17:32:25  profilanswer
 

fazero a écrit :


Là où on peut avoir de la valeur ajoutée c'est pour faire le lien entre le business et la technique (côté business ils pipent rien à la tech et côté tech ils en ont RAB du business). Mais je sais pas trop à quel type de poste ça correspondrait.


Presales / avant-vente

n°5260263
fazero
Posté le 02-10-2023 à 13:54:09  profilanswer
 

Avant-vente oui mais même pendant le cycle de dev pour s"assurer que business et tech sont bien alignés je pense qu'il y a de la place.
 
J'avais vu des Technical Product Manager, ça pourrait pas mal correspondre aussi.


Message édité par fazero le 02-10-2023 à 13:58:06
n°5260265
fazero
Posté le 02-10-2023 à 13:57:55  profilanswer
 

Des gens bossent en France en NLP et ne font pas de LLMs? :o
 
J'avais passé des itw il y a 6 mois pour un poste avec un gros focus NLP et on a même pas parlé de LLM. Aujourd'hui j'ai l'impression qu'ils pourraient virer les 2/3 de l'équipe et faire pourtant mieux grâce à chatGPT :o

n°5260376
flyingchai​r
Posté le 02-10-2023 à 17:21:31  profilanswer
 

Bah chatGPT a touché le grand public (et donc les décideurs) en février. Ensuite ces mêmes décideurs ont compris qu’on pouvait créer ses propres LLM et les adapter à ses données ou son cas d’usage.  
 
On est maintenant en pleine euphorie LLM, on fonce vers le sommet des attentes surdimensionnées, et d’ici 1 à 2 ans on va tomber dans la vallée de la désillusion, quand on va se rendre compte de la lourdeur de ces modèles qui vont avoir du mal à passer en production. On va retrouver les 85% des PoCs qui ne passent pas en production du ML de 2020.  
 
En attendant, les autres approches NLP vont souffrir, comme les approches ML classiques ont souffert à l’arrivée des réseaux de neurones, avant de revenir en grâce.

n°5260943
mrproton
Posté le 03-10-2023 à 15:12:39  profilanswer
 

flyingchair a écrit :

On est maintenant en pleine euphorie LLM, on fonce vers le sommet des attentes surdimensionnées, et d’ici 1 à 2 ans on va tomber dans la vallée de la désillusion, quand on va se rendre compte de la lourdeur de ces modèles qui vont avoir du mal à passer en production. On va retrouver les 85% des PoCs qui ne passent pas en production du ML de 2020.


 
Justement les LLM passent très bien en production
Tout ce qui est sur hugging face ça se télécharge et déploie en quelque lignes
Les modèles peuvent être serializés avec torchscript puis balancés sur à peu près n'importe quoi
Et t'a plein de ports en c/c++ comme llama.cpp qui permettent de les faire tourner sur du matos courant. Un Mac M1 fait tourner llama 7b.
Et sans parler des optimisations qu'on continue d'avoir comme flash attention qui a encore été mis à jour il y a quelques mois.
En plus en ce moment les derniers LLM sortis tendent à être de taille plus en plus raisonnable pour des performances équivalentes (cf celui de mistral ai)
 
On est loin des implémentation 100% python sur GPU d'il y a encore trois ans. Je dis pas que les LLM vont tout résoudre, mais leur déploiement et mise en prod semble pas être un problème majeur.

Message cité 1 fois
Message édité par mrproton le 03-10-2023 à 15:16:01
n°5261035
solal94
Ars longa, vita brevis
Posté le 03-10-2023 à 16:27:48  profilanswer
 

c'est quoi LLM ?  :??:

mood
Publicité
Posté le 03-10-2023 à 16:27:48  profilanswer
 

n°5261080
NotComplia​nt
Posté le 03-10-2023 à 17:18:12  profilanswer
 

Large language models, les chatgpt et compagnie

n°5261596
NotComplia​nt
Posté le 05-10-2023 à 10:10:34  profilanswer
 

Bonjour,

 

Petite question brain-teaser machine leurninegue

 

On veut classifier N classes, chacune de ces classes peuvent avoir des propriétés, certaines de ces propriétés sont spécifiques à certaines classes, certaines propriétés sont communes à toutes les classes. La méthode bourrin c'est d’écrire toutes les combinaisons possibles et faire une classification à M classes mais pas fan, on perds les relations entre les classes et c'est pas super smart

 

Un (mauvais) exemple :

 

- Classification 2 classes chien / chat
- propriétés communes : image en mode sepia oui/non
- propriétés spécifiques chien : dalmatien oui / non
- propriétés spécifiques chat : jsp

 

La méthode bourrin donc c'est de faire un classifier chien / chat / chien sepia / chat sepia / chien dalmatien / chien dalmatien sepia / chat etc..., pas ouf et ça créer 200 000 classes des qu'on a bcp de ppts ou de classes de bases

 

Qui a mieux ?  :jap:  :jap:  :jap:


Message édité par NotCompliant le 05-10-2023 à 10:11:05
n°5261611
Rontgen
Posté le 05-10-2023 à 10:26:42  profilanswer
 

Nan faut pas énumérer toutes les combinaisons de classes, tu peux juste ajuster ta loss pour ne pas prendre en compte le résultat de la branche Dalmatien si ton image n'est pas une image de chien (le reseau va quand meme predire quelque chose, mais tu ignores completement cette partie)

n°5261626
NotComplia​nt
Posté le 05-10-2023 à 11:02:35  profilanswer
 

Donc 1 branche pour les N classes et 1 branche par propriété, quittes à ignorer pendant le training et inférence les combinaisons qui vont pas ?
 
J'ai un peu regardé sur côté de hierarchical learning mais en image y'a pas l'air d'y avoir grand chose

n°5261627
Tidom
Posté le 05-10-2023 à 11:02:52  profilanswer
 

Pour être sûr de ce que tu veux faire :
Binary classification : une seule variable cible à deux valeurs possibles (oui/non, 0/1, malade/pas malade, chien/pas chien) : le classique.
Multiclass classification : une seule variable avec plusieurs valeurs possibles (rouge/vert/jaune, ...)
Multilabel classification : plusieurs variables cible avec potentiellement plusieurs valeurs possibles par variable et des dépendances entre les variables.

 

Tu sembles être dans le dernier cas avec une dépendance hiérarchique entre certains labels.

 

Les mots clés pour Google sont donc :
Hierarchical multilabel classification
Tu peux rajouter deep learning / neural networks pour les images

 

Un bon point d'entrée pour comprendre le problème pourrait être les travaux de ricardo cerri (on s'emballe pas, je ne les ai pas lus)


Message édité par Tidom le 05-10-2023 à 11:03:34
n°5261675
NotComplia​nt
Posté le 05-10-2023 à 13:32:36  profilanswer
 

Okay merci des recos, jvais voir ce que je peux faire :jap:

n°5261700
flyingchai​r
Posté le 05-10-2023 à 14:13:37  profilanswer
 

mrproton a écrit :


 
Justement les LLM passent très bien en production
Tout ce qui est sur hugging face ça se télécharge et déploie en quelque lignes
Les modèles peuvent être serializés avec torchscript puis balancés sur à peu près n'importe quoi
Et t'a plein de ports en c/c++ comme llama.cpp qui permettent de les faire tourner sur du matos courant. Un Mac M1 fait tourner llama 7b.
Et sans parler des optimisations qu'on continue d'avoir comme flash attention qui a encore été mis à jour il y a quelques mois.
En plus en ce moment les derniers LLM sortis tendent à être de taille plus en plus raisonnable pour des performances équivalentes (cf celui de mistral ai)
 
On est loin des implémentation 100% python sur GPU d'il y a encore trois ans. Je dis pas que les LLM vont tout résoudre, mais leur déploiement et mise en prod semble pas être un problème majeur.


C’est pas tout à fait ce que je voulais dire. Oui c’est pas compliqué de mettre un modèle LLM en production, c’est mettre en production à l’échelle pour répondre à un cas d’usage, avec potentiellement un grand nombre d’utilisateurs et un budget infra limité, qui peut poser problème.  
 
Ça reste quand même ultra lourd un LLM :  plusieurs dixièmes de secondes sur un GPU pour prédire une phrase. Donc quand je vois des gens qui veulent faire tout et n’importe quoi avec des LLM je suis dubitatif, comme quand il y a quelques années certains sortaient des réseaux de neurones à tout va quand un XGBoost marchait aussi bien en 100 fois moins lourd.  
 
Et dans cette idée je pense que des approches NLP plus légères pourraient être plus pertinentes et ne devraient pas disparaître mais coexister.

Message cité 1 fois
Message édité par flyingchair le 05-10-2023 à 14:15:18
n°5261927
fazero
Posté le 06-10-2023 à 10:06:15  profilanswer
 

Je sais pas si vous avez essayé dall-e 3.
Autant les versions d'avant étaient pas terribles autant celle là est dingue
 
https://rehost.diberie.com/Picture/Get/f/214489

n°5262161
NotComplia​nt
Posté le 07-10-2023 à 13:19:47  profilanswer
 

fazero a écrit :

Je sais pas si vous avez essayé dall-e 3.
Autant les versions d'avant étaient pas terribles autant celle là est dingue

 

https://rehost.diberie.com/Picture/Get/f/214489

 

C'est pas mauvais en effet, c'est l'AI derriere les portraits hyper realistes qu'on voit sur insta et compagnie ?

 

https://openai.com/dall-e-3

 

https://image.noelshack.com/fichiers/2023/40/6/1696677501-screenshot-2023-10-07-191749.jpg


Message édité par NotCompliant le 07-10-2023 à 13:21:43
n°5262190
o_BlastaaM​oof_o
Posté le 07-10-2023 à 17:05:30  profilanswer
 

flyingchair a écrit :


C’est pas tout à fait ce que je voulais dire. Oui c’est pas compliqué de mettre un modèle LLM en production, c’est mettre en production à l’échelle pour répondre à un cas d’usage, avec potentiellement un grand nombre d’utilisateurs et un budget infra limité, qui peut poser problème.  
 
Ça reste quand même ultra lourd un LLM :  plusieurs dixièmes de secondes sur un GPU pour prédire une phrase. Donc quand je vois des gens qui veulent faire tout et n’importe quoi avec des LLM je suis dubitatif, comme quand il y a quelques années certains sortaient des réseaux de neurones à tout va quand un XGBoost marchait aussi bien en 100 fois moins lourd.  
 
Et dans cette idée je pense que des approches NLP plus légères pourraient être plus pertinentes et ne devraient pas disparaître mais coexister.


On va avoir le même sujet sur les cas d'usages s'appuyant sur des approches rule-based comme le scoring de crédit, les modèles anti-fraude, etc. Beaucoup s'imaginent pouvoir remplacer les X milliers de règles métiers par des LLM, mais quand il va falloir tenir un SLA de 10 ms on va revenir sur Terre vite fait...

n°5262246
cassiopell​a
Posté le 08-10-2023 à 13:44:58  profilanswer
 

flyingchair a écrit :

Bah chatGPT a touché le grand public (et donc les décideurs) en février. Ensuite ces mêmes décideurs ont compris qu’on pouvait créer ses propres LLM et les adapter à ses données ou son cas d’usage.  
 
On est maintenant en pleine euphorie LLM, on fonce vers le sommet des attentes surdimensionnées, et d’ici 1 à 2 ans on va tomber dans la vallée de la désillusion, quand on va se rendre compte de la lourdeur de ces modèles qui vont avoir du mal à passer en production. On va retrouver les 85% des PoCs qui ne passent pas en production du ML de 2020.  
 
En attendant, les autres approches NLP vont souffrir, comme les approches ML classiques ont souffert à l’arrivée des réseaux de neurones, avant de revenir en grâce.


Je ne suis pas d'accord que c'est juste de la folie du moment. LLMs offrent des possibilités qu'on avait pas avant. Il faut repenser à la définition des sujets et avoir un autre approche. Je ne pense pas que LLMs entrent en concurrence avec ML et modèles DL.
 
Chez nous, on a commencé en décembre à travailler sur le sujet...

n°5262279
flyingchai​r
Posté le 08-10-2023 à 17:23:13  profilanswer
 

C’est pas ce que j’ai dit. Je dis qu’aujourd’hui dès qu’on a du texte on veut systématiquement le traiter avec un LLM, en oubliant tout ce qui existait auparavant. Comme il y a quelques années on voulait traiter n’importe quel problème de ML avec des réseaux de neurones. Hors c’est lourd et donc lent et cher en termes d’infrastructures dès qu’on veut scaler.  
 
Après, que les LLM apportent aussi des possibilités inenvisageables auparavant, oui c’est certain.


Message édité par flyingchair le 08-10-2023 à 17:23:31
n°5265664
NotComplia​nt
Posté le 22-10-2023 à 09:45:54  profilanswer
 

Situation pro bourbier, j'en appelle aux experts HFR  
 
Collègue A clame avoir résolu pas mal de nos pbs avec un "new temporal model", pour preuve "tkt frero" + une vidéo cherry picked du résultat sur whatsapp, toute tentative de mise en prod et de validation contre nos jeux de données FDA etc se sont soldées par un échec (pas catastrophique mais rien qui prouve que c'est mieux que l'actuel et c’était un peu en dessous de nos thresholds de validation). Evidemment CEO boomer pense que tout est résolu, boss data science s'enflamme aussi et pense qu'on a le nouveau silver bullet. Notre advisor qui est DIEU veut voir les résultats de ce nouveau modèle sur une autre problématique (un peu plus dure) et comme c'est moi qui historiquement gérait cette problématique ca me retombe sur la GUEULE
 
Je fais quoi sachant que :
- Jpense le culprit ce sont les données mais mon boss autiste veut rien savoir, il veut ze new temporal model
- C'est pas moi qui ait introduit ce nouvel algo et ca marche pas de ce que je vois et de ce que j'ai teste vite fait  
 
J'essaie de rediriger le truc vers collegue A et lui dire de se demmerder ? J'essaie de prouver qu'on retrouve les pbs vus par l'advisor dans nos jeux de données ?  
 
Je trouve ca abuse que machin lance 1 truc et que la charge de la preuve me revienne ainsi que la pression de l'echec  
 
 

Spoiler :

clavier qwerty dsl

n°5265700
bogoss91
Posté le 22-10-2023 à 13:30:13  profilanswer
 

NotCompliant a écrit :

Situation pro bourbier, j'en appelle aux experts HFR  
 
Collègue A clame avoir résolu pas mal de nos pbs avec un "new temporal model", pour preuve "tkt frero" + une vidéo cherry picked du résultat sur whatsapp, toute tentative de mise en prod et de validation contre nos jeux de données FDA etc se sont soldées par un échec (pas catastrophique mais rien qui prouve que c'est mieux que l'actuel et c’était un peu en dessous de nos thresholds de validation). Evidemment CEO boomer pense que tout est résolu, boss data science s'enflamme aussi et pense qu'on a le nouveau silver bullet. Notre advisor qui est DIEU veut voir les résultats de ce nouveau modèle sur une autre problématique (un peu plus dure) et comme c'est moi qui historiquement gérait cette problématique ca me retombe sur la GUEULE
 
Je fais quoi sachant que :
- Jpense le culprit ce sont les données mais mon boss autiste veut rien savoir, il veut ze new temporal model
- C'est pas moi qui ait introduit ce nouvel algo et ca marche pas de ce que je vois et de ce que j'ai teste vite fait  
 
J'essaie de rediriger le truc vers collegue A et lui dire de se demmerder ? J'essaie de prouver qu'on retrouve les pbs vus par l'advisor dans nos jeux de données ?  
 
Je trouve ca abuse que machin lance 1 truc et que la charge de la preuve me revienne ainsi que la pression de l'echec  
 
 

Spoiler :

clavier qwerty dsl



Le vrai probleme c'est que le leadership est bidon, tu peux pas regler ca a part changer de boite.

n°5267095
trunkvlans
Posté le 30-10-2023 à 19:10:16  profilanswer
 

Bonjour,
Je vais commencé un certificat au CNAM IA (6 UVs) fin Février 2024 en HTO, je m'intéresse pas mal au sujet de l'IA. Je travaille dans l'info depuis longtemps mais je tourne un peu en rond..
l'IA me semble est la grosse révolution Info équivalent à l'arrivée d'Internet fin 90..
C'est un secteur qui embauche "facilement" ou c'est déjà bouché ?...

n°5267097
boblenain2​00
Posté le 30-10-2023 à 19:17:18  profilanswer
 

trunkvlans a écrit :

Bonjour,
Je vais commencé un certificat au CNAM IA (6 UVs) fin Février 2024 en HTO, je m'intéresse pas mal au sujet de l'IA. Je travaille dans l'info depuis longtemps mais je tourne un peu en rond..
l'IA me semble est la grosse révolution Info équivalent à l'arrivée d'Internet fin 90..
C'est un secteur qui embauche "facilement" ou c'est déjà bouché ?...


Bouché sans PhD avec publis ..

n°5267106
NotComplia​nt
Posté le 30-10-2023 à 20:05:06  profilanswer
 

L'IA c'est vaste, tu peux aussi faire du dev dans des boites d'IA sans pour autant faire les modeles etc, un mi-chemin p-e interessant pour ton parcours :hello:

n°5267127
xenom
Plaquettes chaussettes
Posté le 30-10-2023 à 22:23:15  profilanswer
 

Ou MLEng y a sans doute moyen de se faire un peu plus de place

n°5267195
Rontgen
Posté le 31-10-2023 à 11:49:51  profilanswer
 

Pour chaque poste ouvert dans mon équipe, on a 150 candidatures (alors qu'on est une toute petite boite), dont je dirais que la moitié au moins a de l'expérience dans mon domaine d'application (pourtant niche).
Donc oui, ca me parait quand meme assez bouché, à part peut-etre pour des experts ou dans des start-ups.
Une facon de se démarquer c'est d'etre super bon en programmation et en DevOps de manière générale (i.e. savoir faire plus que des scripts Python crades).

n°5267202
SodeKa
Posté le 31-10-2023 à 12:22:26  profilanswer
 

Rontgen a écrit :

Pour chaque poste ouvert dans mon équipe, on a 150 candidatures (alors qu'on est une toute petite boite), dont je dirais que la moitié au moins a de l'expérience dans mon domaine d'application (pourtant niche).
Donc oui, ca me parait quand meme assez bouché, à part peut-etre pour des experts ou dans des start-ups.
Une facon de se démarquer c'est d'etre super bon en programmation et en DevOps de manière générale (i.e. savoir faire plus que des scripts Python crades).


 
Comment tu peux t'améliorer en devops à partir de projets perso ? Autant pour la partie dev c'est intéressant de faire des projets de plus en plus complexes, mais je vois pas comment on peut s'améliorer en ops à moins d'être dans une boîte qui a déjà des pipelines de prod  [:le canard nouveau:5]

n°5267219
rokhlan
Posté le 31-10-2023 à 12:46:22  profilanswer
 

Homelab ou Cloud. Tu créés tes serveurs de "prod" et tu fais tes propres pipelines.

n°5267220
Rontgen
Posté le 31-10-2023 à 12:48:05  profilanswer
 

SodeKa a écrit :


Comment tu peux t'améliorer en devops à partir de projets perso ? Autant pour la partie dev c'est intéressant de faire des projets de plus en plus complexes, mais je vois pas comment on peut s'améliorer en ops à moins d'être dans une boîte qui a déjà des pipelines de prod  [:le canard nouveau:5]


C'est effectivement un peu le serpent qui se mord la queue, mais par exemple il y a des thésards qui ont juste fait des scripts/notebooks vs d'autres qui ont travaillé en équipe sur une codebase, qui ont contribué à des libraries open-source, qui devaient gérer un cluster, etc.
Il y a aussi des candidats qui voulaient optmiser leur pipeline, donc ils ont appris et implémenté des trucs en C++/CUDA, alors que d'autres ne passent pas de temps sur ca.

n°5267221
NotComplia​nt
Posté le 31-10-2023 à 12:48:49  profilanswer
 

rokhlan a écrit :

Homelab ou Cloud. Tu créés tes serveurs de "prod" et tu fais tes propres pipelines.


 
La révolution industrielle a été une catastrophe majeure pour l’humanité

n°5267238
denzel was​h in town
Posté le 31-10-2023 à 13:36:25  profilanswer
 

rokhlan a écrit :

Homelab ou Cloud. Tu créés tes serveurs de "prod" et tu fais tes propres pipelines.

 

C'est déjà une plaie à faire en étant payé pour  [:pascom:9]

 

Le faire sur son temps libre  [:somberlain_12:2]

n°5267239
mrproton
Posté le 31-10-2023 à 13:38:23  profilanswer
 

La motivation peut être trouvée si jamais y'a un intérêt réel et concret derrière. Par exemple quelqu'un qui veut se faire son propre serveur multimédia, propre cloud serveur mail etc

n°5267244
fazero
Posté le 31-10-2023 à 14:17:05  profilanswer
 

SodeKa a écrit :


 
Comment tu peux t'améliorer en devops à partir de projets perso ? Autant pour la partie dev c'est intéressant de faire des projets de plus en plus complexes, mais je vois pas comment on peut s'améliorer en ops à moins d'être dans une boîte qui a déjà des pipelines de prod  [:le canard nouveau:5]


Y'a plein de choses à automatiser sur un repo perso en terme de CICD:
- testing et calcul du code coverage
- build + deploy
- brancher à un sonarqube
...etc

n°5267374
mystiko
Posté le 31-10-2023 à 23:30:50  profilanswer
 

Petite question ML :
J'ai un dataset de 4x50k lignes.
Chaque groupe de 4 a des observations et est lié (id commun) mais seul 1 a une target (vide pour les autres).

 

J'ai fait un model assez bourrins en ne prenant que les lignes avec target non nulle, soit 50k observations.
La prediction (régression) est bonne niveau accuracy mais j'ai des trucs bizzares quand je prédis des nouveaux groupes de 4 observations.
La relation d'ordre entre les 4 n'est pas conservée dans la prédiction. C'est des gars du business qui me disent "pourquoi tu prédis 12 pour l'observation A et 25 pour la B? On voit clairement que la A est meilleure et on devrait avoir pred_A > pred_B car A > B"

 

Y'a des domaines qui traitent d'ajouter de l'information de rang, un aprioris ou une contrainte d'ordre? J'ai du mal à chercher/trouver

 

PS : déso c'est schématisé mais je peux pas trop expliquer le business :o

n°5267395
LibreArbit​re
RIP mon Orion
Posté le 01-11-2023 à 16:10:14  profilanswer
 

Hello topic,

 

J'ai une question sûrement HS mais pour un contexte professionnel je cherche une solution idéalement libre et open source pour consolider l'ensemble de nos modes opératoires et procédures (issus de différents formats : PDF, DOCX, Wiki, SharePoint, mail, etc.) dans un knowledge base qui puisse être interrogée en langage naturel et fournir des réponses pertinentes (notamment si des consignes s'appliquent à certains mode opératoire, limitée dans le temps et identifiées par des croisements dans la consolidation des sources.

 

J'ai un service en SaaS qui propose ce type de solution, Chatbase, qui propose des chatbot dont les données peuvent être alimentée depuis plusieurs sources différentes : Fichiers plats (PDF, .docx/.doc, .txt), depuis du texte brut et depuis une adresse de site dont les URL sont parsées et scrapées.

 

Je suppose que ce service génère un fine-tuned modèle par chatbot et les queries sont transmises à OpenAI pour analyse et la formulation des réponses. Ma problématique est que dans le cadre de ma COGIP il n'est pas possible d'accéder au net et encore moins d'avoir des données sensibles stockées chez un tiers, ainsi tout doit être on-premise, en ayant conscience que cela peut-être très gourmand en ressources mais ce n'est pas du tout un problème (on a une infra à plusieurs centaines de millions d'euros).

 

Si vous avez des pistes je suis preneur :jap: (ou m'orienter vers un topic adapté)


Message édité par LibreArbitre le 01-11-2023 à 16:10:34

---------------
Hebergement d'images | Le topic de la VR standalone
n°5267396
NotComplia​nt
Posté le 01-11-2023 à 16:25:46  profilanswer
 
n°5267397
LibreArbit​re
RIP mon Orion
Posté le 01-11-2023 à 16:32:11  profilanswer
 
n°5267674
NotComplia​nt
Posté le 02-11-2023 à 18:51:12  profilanswer
 

On va M&A bientôt, il se passe quoi dans ces cas la ? Je cash out mes parts et je change de boss ? Ou faut re-passer des entretiens avec les nouveaux boss ? [:hurle]

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  128  129  130  131  132  133

Aller à :
Ajouter une réponse
 

Sujets relatifs
Recherche d'emploi[Topik Unique] Les girls de la section E&E
Avez vous des problèmatiques sur le Big Data ?Master Finance et Stratégie de Science Po après des études de droit ?
Je veux travailler dans les Big DATAOrientation pour Data Science & Recherche Opérationnelle
[Topic Unique] Concours ingénieur ENAC/IESSA : 30 postes [Topic Unique] EIVP
[Topic Unique] L'Aylite !!! 
Plus de sujets relatifs à : [Topic Unique] Machine Learning & Data Science


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR