Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2682 connectés 

 


Utilisez-vous du machine learning dans votre job ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  132  133  134  135  136  137
Auteur Sujet :

[Topic Unique] Machine Learning & Data Science

n°5373562
Chou Andy
Would you know my nem
Posté le 21-01-2025 à 09:47:30  profilanswer
 

Reprise du message précédent :
Coach de trail :o


---------------
J'aurais voulu être un businessman
mood
Publicité
Posté le 21-01-2025 à 09:47:30  profilanswer
 

n°5373563
fazero
Salut c'est Ralph
Posté le 21-01-2025 à 09:51:21  profilanswer
 

Quand ça marchera plus j'irais vers le Software Engineering perso, et si il faut je me formerai sur le truc à la mode du moment (cybersécurité here I come :o)
 
Je crois pas au remplacement total des devs par des LLMs


---------------
Agent immobilier sur Paris 16
n°5373604
NotComplia​nt
Posté le 21-01-2025 à 10:31:19  profilanswer
 

fazero a écrit :

Quand ça marchera plus j'irais vers le Software Engineering perso, et si il faut je me formerai sur le truc à la mode du moment (cybersécurité here I come :o)
 
Je crois pas au remplacement total des devs par des LLMs


 
T'auras 1 dev 150 de QI avec le dernier LLM qui fera le taf de l'ancien departement software 25 devs, 10 PM, 2-3 middle managers
 
C'est b1
 
Quand on aura remplace tous les jobs white collar par l'IA et tous les jobs blue collars par les gens du tiers monde on sera content, belle societe

n°5373646
Monsieur M​anatane
Adieu mon Président
Posté le 21-01-2025 à 11:58:43  profilanswer
 

Bonjour, en VAE y a-t-il des diplômes qui seraient plus recommandé que d’autres pour faire reconnaitre 15 ans d’expérience dans le domaine ?


---------------
Mes Ventes JV
n°5373653
bogoss91
Posté le 21-01-2025 à 13:05:41  profilanswer
 

mystiko a écrit :

et du coup vous pensez rebondir comment dans 2-5 ans?


All in calls sur les big techs, comme ca quand nvidia atteint 30T de market cap je fais partie des nantis.

n°5373655
Voxinat
High Frequency Trolling
Posté le 21-01-2025 à 13:10:16  profilanswer
 

bogoss91 a écrit :


All in calls sur les big techs, comme ca quand nvidia atteint 30T de market cap je fais partie des nantis.


C'est un bon hedge imo
 
Si l'IA explose vraiment et fini par remplacer tout le monde, ton ptf en profitera


---------------
Sah Quel Plaisir
n°5373763
fazero
Salut c'est Ralph
Posté le 21-01-2025 à 22:14:49  profilanswer
 
n°5373773
NotComplia​nt
Posté le 21-01-2025 à 23:07:19  profilanswer
 

Puisque le topic est 1 peu plus actif j'avais vu passer ca aussi https://x.com/drjimfan/status/1881353126210687089
 
Visiblement openAI etc ont de la concu en full open source

n°5373862
LibreArbit​re
La /root est longue
Posté le 22-01-2025 à 11:27:31  profilanswer
 

uuuugh a écrit :

Il y a de plus en plus de "foundation models" qui excellent sur une variété de taches. L'exemple typique c'est les LLMs/chatgpt qui surpassent un tas de modèles customs qui avaient été développés mais c'est aussi vrai dans d'autres domaines. Par exemple il y a SAM en vision, sans compter les modèles multi modalités qui se développent de plus en plus. Ajoute à ça le software engineering qui est en pleine crise avec les llms qui codent de mieux en mieux + la floppé de formation DS/ML/etc qui a pop ces dernières années -> game cassé.

 

Il y a encore des domaines niches comme les autres l'ont dit où on peut encore faire du vrai ML et où on a toujours besoin d'entrainer nos propres modèles mais franchement dur d'imaginer dans quelques années comment le taf va être. Mais même de manière plus général le software engineering est à minimum en bouleversement profond.


C'est quand même moche, surtout vu les profils impactés... Les deux DS que je connais sont issus d'une école de groupe A + thèse, personne n'aurait pu prévoir que ce type de profil aurait été menacé... A pondérer car ils se sont trouvés de nouveaux postes (finance de marché), ça rend pas leur cursus caduque :)

 
NotCompliant a écrit :

Puisque le topic est 1 peu plus actif j'avais vu passer ca aussi https://x.com/drjimfan/status/1881353126210687089

 

Visiblement openAI etc ont de la concu en full open source


Content de l'avoir relancé :sol:


Message édité par LibreArbitre le 22-01-2025 à 13:38:13

---------------
Hebergement d'images
n°5373882
fazero
Salut c'est Ralph
Posté le 22-01-2025 à 12:04:21  profilanswer
 

Groupe A + thèse (dans le domaine?) fallait prendre le train des GAFAMs :o


---------------
Agent immobilier sur Paris 16
mood
Publicité
Posté le 22-01-2025 à 12:04:21  profilanswer
 

n°5373919
NotComplia​nt
Posté le 22-01-2025 à 13:32:07  profilanswer
 

Finance ca me parait naturel comme transition pour les matheux qui savent manipuler des donnees pas forcement tres structurees

n°5373965
fazero
Salut c'est Ralph
Posté le 22-01-2025 à 15:22:31  profilanswer
 

NotCompliant a écrit :


 
T'auras 1 dev 150 de QI avec le dernier LLM qui fera le taf de l'ancien departement software 25 devs, 10 PM, 2-3 middle managers
 
C'est b1
 
Quand on aura remplace tous les jobs white collar par l'IA et tous les jobs blue collars par les gens du tiers monde on sera content, belle societe


Je vois 3 manières de m'en sortir:
- être le dev en question (bon si vraiment faut 150 de QI ça va être chaud :o )
- une version plus light de ce truc: les devs codent de - en - et font de + en + l'interface entre le métier (qui demande tout et surtout n'importe quoi) et ChatGPT qui a pas la big picture et obéirait sans sourciller (pas excitant comme job mais faut bien payer les factures)
- pas d'adoption de ces technos hors quelques niches et business as usual


Message édité par fazero le 22-01-2025 à 15:23:02

---------------
Agent immobilier sur Paris 16
n°5378270
nicolaki
Posté le 05-02-2025 à 08:11:20  profilanswer
 

drap

n°5378426
LibreArbit​re
La /root est longue
Posté le 05-02-2025 à 14:12:01  profilanswer
 

Si quelqu'un a un avis sur cette formation je suis preneur : https://www.edx.org/masters/microma [...] eral-track

 

:jap:

Message cité 1 fois
Message édité par LibreArbitre le 05-02-2025 à 14:12:08

---------------
Hebergement d'images
n°5379933
cassiopell​a
Posté le 09-02-2025 à 10:27:13  profilanswer
 

LibreArbitre a écrit :

Si quelqu'un a un avis sur cette formation je suis preneur : https://www.edx.org/masters/microma [...] eral-track

 

:jap:


Difficile de dire sans savoir dans quel pays tu comptes travailler. Je suppose que ce master t'intéresse pour changer le job? Continuer en PhD (master aux US c'est aussi la préparation à PhD)?

 

J'ai regardé le programme: c'est assez équilibré. Il y a des bases en proba et stats (donc pas besoin d'un Bachelor en stats/maths), il y a du ML, python et comment travailler avec les données. Le HIC c'est de savoir comment cela sera enseigné et quel est le contenue plus exact. Parce que bon... il peut avoir des grosses différences entre ce qui est affiché et les connaissances avec les quels on sort.

Message cité 1 fois
Message édité par cassiopella le 09-02-2025 à 15:55:26
n°5379943
trunkvlans
Posté le 09-02-2025 à 11:56:57  profilanswer
 

Avec l'IA on va arriver dans un monde de l'ultra ultra compétitivité qui va tenir le choc à part les IA ? Dans tous les métiers on va être obligé de travailler avec des IA...Il v a forcement avoir moins de travail de manière drastique dans les métiers col blanc...On sera là juste pour aider l'IA .... On sera tous des managers d'IA.


Message édité par trunkvlans le 09-02-2025 à 12:00:46
n°5380274
flyingchai​r
Posté le 10-02-2025 à 20:04:32  profilanswer
 

Compliqué de se lancer dans la data science aujourd’hui. Les chatbots actuels savent déjà créer des scripts de training et d’inférence, alors dans 2 ans, en plus du fait que tout le monde se branle de la data science et du machine learning depuis l’arrivée des LLM, ça va être compliqué pour quelqu’un qui débute face à des plus expérimentés utilisant un chatbot pour pisser le code…

n°5380717
mystiko
Posté le 11-02-2025 à 21:53:43  profilanswer
 

Hello !

 

Quelqu'un a deja benchmarké les algo d'ocr ?
J'ai des dizaines de milliers de factures en pdf, toutes dans des formats différents et 'colonnes' différentes évidemment :o
Factures en français manuscrit ou ordi
Je veux toutes les passer dans de l'OCR pour récupérer les trucs classiques : produit, prix HT, prix TTC, quantité, savoir si c'est signé ou tampon etc ...

 

Vous partiriez sur quoi?

 

Je pensais tester textract ou paddleocr + gpt4o-mini
D'autres idées sur ce type de problématiques

n°5380727
xenom
Plaquettes chaussettes
Posté le 11-02-2025 à 22:32:34  profilanswer
 

Perso me ferais meme pas chier avec de l'OCR. J'ai eu de très bon résultats avec Claude Sonnet 3.5 pour du visual processing. Après coûts des appels API à checker, de mon côté c'est la boite qui paie  :o


Message édité par xenom le 11-02-2025 à 22:33:04
n°5380728
fazero
Salut c'est Ralph
Posté le 11-02-2025 à 22:33:17  profilanswer
 

Faut payer :o

 

Dans un monde pré LLM j'utilisais tesseract mais c'est vraiment pas fou.
Les outils open source d'OCR sont souvent mal documentés, pas maintenus, buggués et gèrent pas toujours le français.

 

Des mecs qui faisaient que ça dans leur boîte me disait qu'il fallait utiliser des solutions payantes type textract d'Amazon ou Google OCR.

 

Aujourd'hui je crois que je testerais ça puis du LLM si ça fait pas le job.


---------------
Agent immobilier sur Paris 16
n°5380734
mystiko
Posté le 11-02-2025 à 22:46:40  profilanswer
 

C'est évidemment ma boîte qui paye :o
On m'a même dit "balek du budget du moment que ça marche :o. On regardera ça quand on aura un process à 95% automatisé"

 


Textract il est bon sur des factures diverses ?
Le mode queries c'est bancale non?
Ou alors je fais textract + un llm pour me le donner en json et il se débrouille pour maper les key/values à mon besoin

Message cité 1 fois
Message édité par mystiko le 11-02-2025 à 22:47:07
n°5380771
NotComplia​nt
Posté le 12-02-2025 à 04:37:15  profilanswer
 

Jsp pas pourquoi ma boite continue l'IA, chatgpt fait aussi bien que nous en zero shot, tres tres impressionant  
 
J'avais vu un repo github ou le mec justement avait une pipeline OCR avec un LLM qui faisait le filtering etc, tres fort

n°5380800
LibreArbit​re
La /root est longue
Posté le 12-02-2025 à 09:06:08  profilanswer
 

cassiopella a écrit :

Difficile de dire sans savoir dans quel pays tu comptes travailler. Je suppose que ce master t'intéresse pour changer le job? Continuer en PhD (master aux US c'est aussi la préparation à PhD)?
 
J'ai regardé le programme: c'est assez équilibré. Il y a des bases en proba et stats (donc pas besoin d'un Bachelor en stats/maths), il y a du ML, python et comment travailler avec les données. Le HIC c'est de savoir comment cela sera enseigné et quel est le contenue plus exact. Parce que bon... il peut avoir des grosses différences entre ce qui est affiché et les connaissances avec les quels on sort.


Merci pour ton retour :jap:
 
Pas d'objectif professionnel particulier, c'était plus pour la culture générale :)
 

NotCompliant a écrit :

Jsp pas pourquoi ma boite continue l'IA, chatgpt fait aussi bien que nous en zero shot, tres tres impressionant  
 
J'avais vu un repo github ou le mec justement avait une pipeline OCR avec un LLM qui faisait le filtering etc, tres fort


Je comprends pas, pour de la prédiction, de la classification, de la recommandation, t'es bien obligé de train des modèles sur tes datas non ? Je comprends pas le parallèle avec l'IA générative...

Message cité 1 fois
Message édité par LibreArbitre le 12-02-2025 à 09:07:16

---------------
Hebergement d'images
n°5380819
flyingchai​r
Posté le 12-02-2025 à 09:53:59  profilanswer
 

NotCompliant a écrit :

Jsp pas pourquoi ma boite continue l'IA, chatgpt fait aussi bien que nous en zero shot, tres tres impressionant  
 
J'avais vu un repo github ou le mec justement avait une pipeline OCR avec un LLM qui faisait le filtering etc, tres fort


Sur des usecases qu’un LLM peut traiter quelques points sur lesquels il est possible de battre chatGPT et consorts :
- la nécessité d’une infra souveraine (à voir si Mistral va faire une offre avec le traitement des données en Europe)
- potentiellement les coûts et la frugalité énergétique (ça compte pour certaines entreprises qui ont des objectifs) les LLM ça reste des gros modèles de bourrin, pour certaines tâches des algos beaucoup plus légers pourrait fonctionner aussi bien pour une fraction du prix.  
- la maitrise technologique : si vous utilisez un modèle hébergé par un opérateur externe rien ne garantit la disponibilité et le prix sur le long terme
 
Donc avoir ses propres algos ça peut être pertinent dans certaines cas. Algos qui seront développés en grande partie par des chatbots, hein  [:paul de saint-balby:4]

n°5381367
NotComplia​nt
Posté le 13-02-2025 à 08:45:15  profilanswer
 

LibreArbitre a écrit :


Je comprends pas, pour de la prédiction, de la classification, de la recommandation, t'es bien obligé de train des modèles sur tes datas non ? Je comprends pas le parallèle avec l'IA générative...

 

Bah c'est ce que je dis, on a par exemple un modele de classification pour certaines images / donnes medicales qu'on a train sur nos donnees... bah si j'upload l'image dans chatgpt non seulement il me predit la bonne classe mais il discute aussi de ce qu'il voit cliniquement etc

 

D'ailleurs en parlant de classification, 2 petits challenge data science (je n'ai pas la reponse)

 

- 200k images avec clinical expert generated ground truth
- Chaque image se decompose en 2 parties, moitiee du haut c'est un truc, moitiee du bas c'est un autre truc issu du truc du haut
- 50 classes possibles

 

1) Pour les classes sous-representees, cela-a-t-il un interet de creer des donnees synthetiques en decoupant les donnees presentes et en recollant au hasard les moitiees hautes et basses ? (par ex moitiee haute de l'image 1 + moitiee basse de l'image 2 = image synthetique 3)

 

2) En plus de l'image en elle-meme, on dispose en input du type d'image medical, comment incorporiez vous ce puissant condionnement dans un modele de classification ?

 

:jap:

Message cité 2 fois
Message édité par NotCompliant le 13-02-2025 à 08:56:08
n°5381396
xenom
Plaquettes chaussettes
Posté le 13-02-2025 à 11:43:31  profilanswer
 

mystiko a écrit :

C'est évidemment ma boîte qui paye :o
On m'a même dit "balek du budget du moment que ça marche :o. On regardera ça quand on aura un process à 95% automatisé"
 
 
Textract il est bon sur des factures diverses ?  
Le mode queries c'est bancale non?  
Ou alors je fais textract + un llm pour me le donner en json et il se débrouille pour maper les key/values à mon besoin


Tombé là dessus ce matin https://www.sergey.fyi/articles/gemini-flash-2

n°5381622
flyingchai​r
Posté le 13-02-2025 à 22:22:15  profilanswer
 

NotCompliant a écrit :


 
Bah c'est ce que je dis, on a par exemple un modele de classification pour certaines images / donnes medicales qu'on a train sur nos donnees... bah si j'upload l'image dans chatgpt non seulement il me predit la bonne classe mais il discute aussi de ce qu'il voit cliniquement etc
 
D'ailleurs en parlant de classification, 2 petits challenge data science (je n'ai pas la reponse)
 
- 200k images avec clinical expert generated ground truth
- Chaque image se decompose en 2 parties, moitiee du haut c'est un truc, moitiee du bas c'est un autre truc issu du truc du haut
- 50 classes possibles
 
1) Pour les classes sous-representees, cela-a-t-il un interet de creer des donnees synthetiques en decoupant les donnees presentes et en recollant au hasard les moitiees hautes et basses ? (par ex moitiee haute de l'image 1 + moitiee basse de l'image 2 = image synthetique 3)
 
2) En plus de l'image en elle-meme, on dispose en input du type d'image medical, comment incorporiez vous ce puissant condionnement dans un modele de classification ?  
 
:jap:


 
Voici quelques pistes de réflexion pour chacun des challenges :
 
1) Génération de données synthétiques par recombinaison de moitiés d'images
Idée de base :
Recomposer des images en prenant, par exemple, la moitié supérieure d'une image et la moitié inférieure d'une autre, afin d'augmenter artificiellement les classes sous-représentées.
 
Points à considérer :
 
Indépendance des moitiés :
 
Avantage potentiel : Si les informations présentes dans la moitié supérieure et dans la moitié inférieure sont relativement indépendantes (c’est-à-dire que chaque moitié peut être interprétée de manière séparée sans perdre de sens cliniquement pertinent), la recombinaison peut être une technique efficace pour augmenter la diversité des exemples.
Risque : Si les deux moitiés sont fortement corrélées (par exemple, des structures anatomiques ou des signes pathologiques se retrouvent dans une relation spécifique entre le haut et le bas), recombiner des moitiés de sources différentes peut créer des images qui ne reflètent pas la réalité clinique, introduisant du bruit ou des artefacts dans le jeu de données.
Considérations cliniques :
 
Il est important de consulter des experts cliniques pour valider que les images synthétiques générées restent physiologiquement plausibles.
En fonction de la nature des signes cliniques, il peut être préférable de privilégier des méthodes de data augmentation qui respectent la cohérence structurelle globale de l’image.
Alternatives :
 
Des approches basées sur des modèles génératifs (comme des GANs) peuvent être utilisées pour générer des images synthétiques tout en apprenant la distribution jointe des deux moitiés.
D’autres techniques d’augmentation classiques (rotations, translations, modifications d’intensité, etc.) pourraient aussi être explorées.
Conclusion :
La recombinaison aléatoire des moitiés peut être envisagée pour augmenter les classes sous-représentées, mais il faut s’assurer que cela n’introduise pas d’artefacts non-cliniques. Une validation par des experts et éventuellement une expérimentation comparative avec d’autres techniques d’augmentation de données est recommandée.
 
2) Incorporer le type d'image médicale comme conditionnement dans le modèle de classification
Idée de base :
Utiliser le type d'image (information contextuelle forte) pour guider le processus de classification, en intégrant cette donnée dans le réseau de neurones.
 
Approches possibles :
 
Concaténation d’un vecteur d’embedding :
 
Encoder le type d'image (par exemple, en le représentant sous forme de vecteur one-hot ou via une couche d’embedding) et le concaténer aux caractéristiques extraites par le CNN.
Par exemple, après quelques couches convolutionnelles, extraire un vecteur de features de l'image, concaténer ce vecteur avec celui issu de l'encodage du type d'image, puis poursuivre avec des couches entièrement connectées pour la classification.
Normalisation conditionnelle (Conditional Batch Normalization) :
 
Utiliser le type d'image pour moduler les paramètres de normalisation du réseau (par exemple, les paramètres gamma et beta dans une BatchNorm).
Cela permet d’adapter dynamiquement le traitement des features en fonction du type d'image.
Architecture multi-entrée :
 
Concevoir une architecture à deux branches : l'une pour traiter l'image et l'autre pour traiter le type d'image.
Ces deux branches peuvent ensuite être fusionnées dans les couches ultérieures pour réaliser la classification finale.
Avantages :
 
Le conditionnement par le type d'image permet au modèle de contextualiser ses prédictions et potentiellement d’améliorer sa performance, surtout si certaines pathologies se manifestent différemment selon le type d'image.
Conclusion :
Je privilégierais l’utilisation d’un vecteur d’embedding pour le type d'image, combiné à une architecture multi-entrée ou via une concaténation des features, ce qui permet d’intégrer efficacement cette information dans le processus de classification.
 
Ces pistes sont des points de départ pour explorer différentes stratégies. Le choix final dépendra notamment de la nature exacte des données, de la cohérence entre les moitiés d’images, et de la pertinence clinique des images synthétiques générées. N’hésitez pas à itérer et à expérimenter pour trouver la meilleure solution.

n°5381660
NotComplia​nt
Posté le 14-02-2025 à 03:59:03  profilanswer
 

Merci mr gpt [:hurle]

n°5381851
flyingchai​r
Posté le 14-02-2025 à 14:05:22  profilanswer
 

[:synology95]

n°5382335
johnmjs
Posté le 16-02-2025 à 21:34:11  profilanswer
 

[:michrone]

n°5384037
NotComplia​nt
Posté le 24-02-2025 à 06:34:07  profilanswer
 

Ca sert a quelque chose de faire un tres gros pretraining sur des "weak labels" ??

 

i.e

 

image classifier qui predit toutes les races de chiens et de chats (genre 300 classes au total on va dire), dataset plutot representatif et de taille ok (on va dire 100k images avec des labels faits par des experts humains)

 

mais j'ai aussi genre 500k-1M images avec juste un label chien / chat

 

Ca sert a qq chose de train un classifier binaire chien / chat sur le gros dataset avec les weak labels, puis de tej la derniere couche et de finetune sur les 100k images avec les vrais labels ????

 

J'imagine que la question sous-jacente c'est comment utiliser au mieux ce gros dataset sans labels

Message cité 1 fois
Message édité par NotCompliant le 24-02-2025 à 06:35:36
n°5384108
bogoss91
Posté le 24-02-2025 à 12:23:58  profilanswer
 

NotCompliant a écrit :

Ca sert a quelque chose de faire un tres gros pretraining sur des "weak labels" ??
 
i.e  
 
image classifier qui predit toutes les races de chiens et de chats (genre 300 classes au total on va dire), dataset plutot representatif et de taille ok (on va dire 100k images avec des labels faits par des experts humains)
 
mais j'ai aussi genre 500k-1M images avec juste un label chien / chat
 
Ca sert a qq chose de train un classifier binaire chien / chat sur le gros dataset avec les weak labels, puis de tej la derniere couche et de finetune sur les 100k images avec les vrais labels ????
 
J'imagine que la question sous-jacente c'est comment utiliser au mieux ce gros dataset sans labels


Mieux d'utiliser le self-supervised learning IMO.
Quand tu train un classifier chien / chat, le modele va focus sur les features les plus faciles pour differencier chiens et chats. Alors que si tu train self-supervised le modele va devoir etre fort a comprendre tous les aspects de l'image.  
Tu peux ptet ajouter le classifier chien / chat en bonus.

n°5384225
NotComplia​nt
Posté le 24-02-2025 à 16:48:14  profilanswer
 

bogoss91 a écrit :


Mieux d'utiliser le self-supervised learning IMO.
Quand tu train un classifier chien / chat, le modele va focus sur les features les plus faciles pour differencier chiens et chats. Alors que si tu train self-supervised le modele va devoir etre fort a comprendre tous les aspects de l'image.  
Tu peux ptet ajouter le classifier chien / chat en bonus.


 
SimCLR en gros ? https://github.com/sayakpaul/SimCLR [...] ree/master

n°5384234
bogoss91
Posté le 24-02-2025 à 17:08:22  profilanswer
 

Jc po c'est quoi le state of the art en image, SimCLR ca date quand meme.

n°5384801
NotComplia​nt
Posté le 26-02-2025 à 12:44:48  profilanswer
 

NotCompliant a écrit :


[...]
2) En plus de l'image en elle-meme, on dispose en input du type d'image medical, comment incorporiez vous ce puissant condionnement dans un modele de classification ?  


 
Jsp si ca interesse quelqu'un mais la solution que j'ai trouve et qui marche tres bien c'est
 
Image -> backbone classique type resnet -> features_images
Type d'image genre categorical -> embedding layer https://keras.io/api/layers/core_layers/embedding/ -> MLP pour projeter et match dimension features_images -> features_type_image
 
Ensuite cette couche pour combiner les features_images et features_type_image https://ml-retrospectives.github.io [...] 2019/film/
 
J'avais essaye different type d'attention vu que c'est la mode, ca marchait pas du tout. Concatenation et Add ca marchait pas mal mais la couche ci-dessus bcp + accurate  
 
:jap:

n°5389168
NotComplia​nt
Posté le 11-03-2025 à 06:13:54  profilanswer
 

Mine de rien c'est relativement plaisant de faire de l'IA quand on a les moyens

 

Les geekos de l'IT ont refait la machine que j'utilisais avec la nouvelle RTX Nvidia + reste de la config énervée

 

Sur le projet actuel je peux faire 1 passe sur 120k vidéos avec resnet3D en ~1h, très cool :jap:

 

Et c'est juste en bourrinant les // workers, mon dataloader est fait à la zob et je pourrais probablement diviser le temps par 2-3 en cachant le jeu de données préprocessed :o :o :o

Message cité 1 fois
Message édité par NotCompliant le 11-03-2025 à 06:48:21
n°5420100
Rick_C137
Posté le 25-06-2025 à 07:02:42  profilanswer
 

NotCompliant a écrit :

Mine de rien c'est relativement plaisant de faire de l'IA quand on a les moyens

 

Les geekos de l'IT ont refait la machine que j'utilisais avec la nouvelle RTX Nvidia + reste de la config énervée

 

Sur le projet actuel je peux faire 1 passe sur 120k vidéos avec resnet3D en ~1h, très cool :jap:

 

Et c'est juste en bourrinant les // workers, mon dataloader est fait à la zob et je pourrais probablement diviser le temps par 2-3 en cachant le jeu de données préprocessed :o :o :o

 

Setup de baltringue, si tu entraînés pas sur des clusters de 8xH100 ou 8xA100 a la rigueur t'es pas pertinent en 2025

Message cité 1 fois
Message édité par Rick_C137 le 25-06-2025 à 07:03:00
n°5426075
mystiko
Posté le 22-07-2025 à 23:07:55  profilanswer
 

On cherche un AI Eng dans ma boîte, MP si jamais (remote possible) :o
C'est pas facile à recruter ces profils, c'est la jungle

n°5427764
NotComplia​nt
Posté le 31-07-2025 à 05:40:33  profilanswer
 

Rick_C137 a écrit :


 
Setup de baltringue, si tu entraînés pas sur des clusters de 8xH100 ou 8xA100 a la rigueur t'es pas pertinent en 2025


 
Tu parles a qui quand tu dis baltringue ?  
 
Je debarque dans ton bureau et je fais la une des journaux hein
 
Tu te calmes

n°5427800
xenom
Plaquettes chaussettes
Posté le 31-07-2025 à 10:04:26  profilanswer
 

[:gregosv:2]

n°5428571
NotComplia​nt
Posté le 05-08-2025 à 09:19:28  profilanswer
 

J'ai l'impression que tout le monde s'en tape du train - val - test qu'on nous a enseigné en école
 
L'IA moderne c'est prendre toutes les données possibles et train aussi longtemps que ton budget GPU te le permet
 
Ensuite la commu teste ton modèle sur différents benchmarks
 
C'est un truc que je faisais depuis longtemps à mon taf, jvoyais pas pk je devais me faire chier à split localement alors qu'on a des milliers et des milliers de samples de test dans des datasets isolés pour le regulatory (FDA etc)
 
Tu train sur tout et tu balances ça sur le test direct basta
 
Avis éclairés ?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  132  133  134  135  136  137

Aller à :
Ajouter une réponse
 

Sujets relatifs
Recherche d'emploi[Topik Unique] Les girls de la section E&E
Avez vous des problèmatiques sur le Big Data ?Master Finance et Stratégie de Science Po après des études de droit ?
Je veux travailler dans les Big DATAOrientation pour Data Science & Recherche Opérationnelle
[Topic Unique] Concours ingénieur ENAC/IESSA : 30 postes [Topic Unique] EIVP
[Topic Unique] L'Aylite !!! 
Plus de sujets relatifs à : [Topic Unique] Machine Learning & Data Science


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)