Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3033 connectés 

 

Sujet(s) à lire :
    - Who's who@Programmation
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  26983  26984  26985  26986  26987  26988  26989  26990
Auteur Sujet :

[blabla@olympe] Le topic du modo, dieu de la fibre et du monde

n°2512704
Kenshineuh
Posté le 15-12-2025 à 19:00:21  profilanswer
 

Reprise du message précédent :

hephaestos a écrit :

Mais t'es vraiment en train d'essayer de dire que l'IA ça sert à rien pour écrire du code en général, ou juste du rust ?


 
Je n'ai dit ni l'un, ni l'autre.
 
Sa phrase est : "meme si je serais curieux de voir comment le modèle se bat avec les lifetimes et le borrow checker sur des trucs complexes".
 

XaTriX a écrit :


La condescendance


 
Face à toi oui c'est la moindre des choses.  :lol:

Message cité 2 fois
Message édité par Kenshineuh le 15-12-2025 à 19:02:01
mood
Publicité
Posté le 15-12-2025 à 19:00:21  profilanswer
 

n°2512705
Kenshineuh
Posté le 15-12-2025 à 19:10:45  profilanswer
 

Dernier exemple qui date d'il y a à peine quelque heures :

Code :
  1. #[derive(Debug, PartialEq, Eq)]
  2. enum DivisionError {
  3.     DivideByZero,
  4.     IntegerOverflow,
  5.     NotDivisible,
  6. }
  7. fn divide(a: i64, b: i64) -> Result<i64, DivisionError> {
  8.     if b == 0 {
  9.         return Err(DivisionError::DivideByZero);
  10.     }
  11.     if a == i64::MIN && b == -1 {
  12.         return Err(DivisionError::IntegerOverflow);
  13.     }
  14.     if a % b != 0 {
  15.         return Err(DivisionError::NotDivisible);
  16.     }
  17.     Ok(a / b)
  18. }
  19. fn result_with_list() {
  20.     let numbers = [27, 297, 38502, 81];
  21.     let division_results = numbers.into_iter().map(|n| divide(n, 27));
  22. }
 

// Add the correct return type and complete the function body.
// Desired output: `Ok([1, 11, 1426, 3])`

 

Réponse de claude 4.5 :

 
Code :
  1. fn result_with_list() -> Result<[i64; 4], DivisionError> {
  2.     let numbers = [27, 297, 38502, 81];
  3.     let division_results = numbers
  4.         .into_iter()
  5.         .map(|n| divide(n, 27))
  6.         .collect::<Result<Vec<_>, _>>()?;
  7.     Ok([
  8.         division_results[0],
  9.         division_results[1],
  10.         division_results[2],
  11.         division_results[3],
  12.     ])
  13. }
 

:heink:

Message cité 2 fois
Message édité par Kenshineuh le 15-12-2025 à 19:10:58
n°2512706
XaTriX
Posté le 15-12-2025 à 19:12:17  profilanswer
 

Kenshineuh a écrit :


 
Face à toi oui c'est la moindre des choses.  :lol:


La défense à 2 balles, tu répondais à Devil's hein


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°2512707
Dion
Acceuil
Posté le 15-12-2025 à 19:12:29  profilanswer
 

Avec l'hiver ça n'ouvre plus beaucoup les fenêtres  :fou:  
 


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°2512708
XaTriX
Posté le 15-12-2025 à 19:13:21  profilanswer
 

hephaestos a écrit :

Mais t'es vraiment en train d'essayer de dire que l'IA ça sert à rien pour écrire du code en général, ou juste du rust ?


Ça me semble évident oui, un peu comme les écolo anti nuke :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°2512709
Devil'sTig​er
Posté le 15-12-2025 à 19:17:36  profilanswer
 

Kenshineuh a écrit :


Code :
  1. if b == 0 {
  2.         return Err(DivisionError::DivideByZero);
  3.     }


 


 
 
Les vrais auraient  converti en f32, arrondi a l'epsilon, pour envoyer ca vers l'infini; quel faible tu es:
https://doc.rust-lang.org/std/primi [...] nt.EPSILON
 
[:monsieur double jay:1]
 

Jubijub a écrit :

Mais comme ça je pourrais moi aussi prendre l'air pédant et me moquer des êtres inférieurs qui ne codent pas en Rust :o


 

XaTriX a écrit :

Le seul truc sur c'est que tu vas vers le syndrome du sysadmin


 
Ca commence [:shimay:1]

n°2512710
Kenshineuh
Posté le 15-12-2025 à 19:19:45  profilanswer
 

Devil'sTiger a écrit :


 
 
Les vrais auraient  converti en f32, arrondi a l'epsilon, pour envoyer ca vers l'infini; quel faible tu es:
https://doc.rust-lang.org/std/primi [...] nt.EPSILON
 
[:monsieur double jay:1]
 


 
Ce n'est pas mon code. C'est d'ailleurs comme ça que je teste un peu les IA. Car dans les faits, la réponse marche.

n°2512711
rufo
Pas me confondre avec Lycos!
Posté le 15-12-2025 à 19:25:05  profilanswer
 

Les points relais de colis : tellement vrai : https://www.youtube.com/watch?v=H_TiEcvcHV8  :lol:
 
Sinon, Deus ex silicium vient de sortir une vidéo sur un casque VR : https://www.youtube.com/watch?v=zfCQ_8-uBy0   :bounce:


Message édité par rufo le 15-12-2025 à 19:26:18

---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2512712
Dion
Acceuil
Posté le 15-12-2025 à 19:26:49  profilanswer
 

Et voilà c'est en haut dans mon watch later, comment je fais maintenant pour suivre :pfff: :fou:


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°2512713
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 15-12-2025 à 20:11:08  profilanswer
 

Kenshineuh a écrit :


 
Je n'ai dit ni l'un, ni l'autre.
 
Sa phrase est : "meme si je serais curieux de voir comment le modèle se bat avec les lifetimes et le borrow checker sur des trucs complexes".
 


 
Et tu penses que ça fait l'unanimité de penser que les modèles d'aujourd'hui en sont incapables ? Faut voir ce que tu entends par complexe, mais ça me parait un peu rapide.
 

Kenshineuh a écrit :

Dernier exemple qui date d'il y a à peine quelque heures :  

Code :
  1. #[derive(Debug, PartialEq, Eq)]
  2. enum DivisionError {
  3.     DivideByZero,
  4.     IntegerOverflow,
  5.     NotDivisible,
  6. }
  7. fn divide(a: i64, b: i64) -> Result<i64, DivisionError> {
  8.     if b == 0 {
  9.         return Err(DivisionError::DivideByZero);
  10.     }
  11.     if a == i64::MIN && b == -1 {
  12.         return Err(DivisionError::IntegerOverflow);
  13.     }
  14.     if a % b != 0 {
  15.         return Err(DivisionError::NotDivisible);
  16.     }
  17.     Ok(a / b)
  18. }
  19. fn result_with_list() {
  20.     let numbers = [27, 297, 38502, 81];
  21.     let division_results = numbers.into_iter().map(|n| divide(n, 27));
  22. }


 
// Add the correct return type and complete the function body.
// Desired output: `Ok([1, 11, 1426, 3])`
 
Réponse de claude 4.5 :
 

Code :
  1. fn result_with_list() -> Result<[i64; 4], DivisionError> {
  2.     let numbers = [27, 297, 38502, 81];
  3.     let division_results = numbers
  4.         .into_iter()
  5.         .map(|n| divide(n, 27))
  6.         .collect::<Result<Vec<_>, _>>()?;
  7.     Ok([
  8.         division_results[0],
  9.         division_results[1],
  10.         division_results[2],
  11.         division_results[3],
  12.     ])
  13. }


 
 :heink:


 
https://gemini.google.com/share/f59d067eb0c9

mood
Publicité
Posté le 15-12-2025 à 20:11:08  profilanswer
 

n°2512714
Dion
Acceuil
Posté le 15-12-2025 à 20:24:43  profilanswer
 

ça suffit le growth hacking [:kiki]


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°2512715
Kenshineuh
Posté le 15-12-2025 à 20:24:59  profilanswer
 

hephaestos a écrit :


Et tu penses que ça fait l'unanimité de penser que les modèles d'aujourd'hui en sont incapables ? Faut voir ce que tu entends par complexe, mais ça me parait un peu rapide.

 

Disons que je me fie plutôt à mon expérience et surtout à ce qu'en disent les quelques personnes/experts que je suis. Quand je dis expert, y'a de tout en vrai. Ça peut aller des gens qui bossent sur le langage, à des gens comme Primeagen ou bien fasterthanlime. Sur du code "complexes" (oui ça reste à définir), les IA ne sont pas dingues et raconte très souvent de la merde ou font des trucs pas du tout optimisé (Cf mon exemple précédent).

 

On peut aussi citer les gens du topic, comme nraynaud qui nous montre souvent ses résultats ou Flo qui n'est pas tjs convaincu. J'ai jamais dit que ça ne marchait jamais, je l'utilise moi même sur quelques trucs. Mais sur des trucs un peu plus compliqué que du hello world, c'est pas magique et ça fait une dissonance avec HLM (ne fait plus de dev) ou Xat (non dev) qui nous disent que ça fait le café et que ça tond la pelouse en même temps.

  

Mettez-vous d'accord sur ce topic, on m'a dit Claude c'etait le plus mieux. Maintenant c'est Gemini. Ça va trop vite.

Message cité 2 fois
Message édité par Kenshineuh le 15-12-2025 à 20:26:28
n°2512716
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 15-12-2025 à 20:30:03  profilanswer
 

Précisément, ça va vite. Autant je veux bien croire que tu aies trouvé des cas où ça merdouille, autant ben ça merdouille de moins en moins, et ça commence à être compliqué de dire que pour nous ça marche pas.

n°2512717
Hermes le ​Messager
Breton Quiétiste
Posté le 15-12-2025 à 20:56:38  profilanswer
 

Kenshineuh a écrit :


 
Disons que je me fie plutôt à mon expérience et surtout à ce qu'en disent les quelques personnes/experts que je suis. Quand je dis expert, y'a de tout en vrai. Ça peut aller des gens qui bossent sur le langage, à des gens comme Primeagen ou bien fasterthanlime. Sur du code "complexes" (oui ça reste à définir), les IA ne sont pas dingues et raconte très souvent de la merde ou font des trucs pas du tout optimisé (Cf mon exemple précédent).
 


 
Oui, Hepha, c'est un nullos, on le sait tous.  [:cmshadow]  
 
Sans dec...  [:massys]


---------------
Expert en expertises
n°2512718
Kenshineuh
Posté le 15-12-2025 à 21:00:53  profilanswer
 

C'est pas DU TOUT mon propos, mais tu peux relire avec le doigt. Ça tu sais faire. Avant de parler IA, on va peut-être se concentrer sur le Français et sa compréhension. :jap:


Message édité par Kenshineuh le 15-12-2025 à 21:01:49
n°2512719
___alt
Posté le 15-12-2025 à 21:03:14  profilanswer
 

Même en local (avec devstral 2 mini) ça trouve la réponse en deux steps (une implem "manuelle" pas ouf au début, en lui disant "y'aurait pas un truc standard Rust qui fait ça il sort le collect)


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2512720
XaTriX
Posté le 15-12-2025 à 21:12:32  profilanswer
 

___alt a écrit :

Même en local (avec devstral 2 mini) ça trouve la réponse en deux steps (une implem "manuelle" pas ouf au début, en lui disant "y'aurait pas un truc standard Rust qui fait ça il sort le collect)


Tu fais tourner devstral2mini ? C'est cool ?


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°2512721
___alt
Posté le 15-12-2025 à 21:17:04  profilanswer
 

devstral 2 small pardon :o


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2512722
___alt
Posté le 15-12-2025 à 21:17:51  profilanswer
 

Je le fais tourner en local avec LM Studio, j'ai pas accès aux features de vibe coding & co :o


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2512723
Devil'sTig​er
Posté le 15-12-2025 à 21:38:26  profilanswer
 

Kenshineuh a écrit :


 
Mettez-vous d'accord sur ce topic, on m'a dit Claude c'etait le plus mieux. Maintenant c'est Gemini. Ça va trop vite.


 
J'ai jamais dit que c'était le mieux, c'est ce que j'ai utilisé ce week end, mais tu peux pas savoir comme je m'en fou de quel modèle j'utilise, tant que ca passe dans un certain temps, c'est tout ce qui m'intéresse. Et ca fait 1 an que ca passe a 100%. Et comme dit oui ça peut être frustant, chiant, partir en loop et j'en passe, m'en fou, ca reste plus rapide que tes 10 doigts.
 

Kenshineuh a écrit :


Sur du code "complexes" (oui ça reste à définir), les IA ne sont pas dingues et raconte très souvent de la merde ou font des trucs pas du tout optimisé (Cf mon exemple précédent).


 
Je ne suis pas sur les codes les plus complexes de la planète, loin de là, mon secteur est globalement le web avec quelques To de data par jour, donc loin du jouet, mes problématiques sont sur des graphiques de stabilité de la BDD et combien de To aujourd'hui ce noeud prend et qu'est ce qui lui arrive pour n'être qu'a 2000 objets par seconde. Donc on est pas sur un advent of code ou "tant que ca compile".
 
A ce jeu, entre un code moyen en python ou node sorti par un humain, et globalement le code que tu as donné en Rust. Rust tous les jours en fait :D Même moyen :D
 

hephaestos a écrit :

Précisément, ça va vite. Autant je veux bien croire que tu aies trouvé des cas où ça merdouille, autant ben ça merdouille de moins en moins, et ça commence à être compliqué de dire que pour nous ça marche pas.


 
C'est une attitude. Dans la boite ou je suis, le pole IT fait 60 personnes. La majorité ne touchent pas a l'IA car "ca ne marche pas".
 
 
Manque de bol, ca marche. Et le management le sait vu que c'est moi :o Résultat, ceux qui n'ont pas pris le train de l'IA, vont pour la plupart être viré (a vrai dire s'il arrive a sortir la même vitesse sans IA ca me va aussi, mais dans les faits ca n'est pas le cas, un bon ingé avec IA >>>>>> le reste, c'est flagrant). Résultat un écart est entrain d'apparaitre et c'est assez visible.
 
On estime au doigt mouillé de diminuer entre 1/3 et 1/2 notre pole informatique sous environ 2 ans, pour sortir le même nombre de fonctionnalités par mois.

Kenshineuh a écrit :


 c'est pas magique et ça fait une dissonance avec HLM (ne fait plus de dev) ou Xat (non dev) qui nous disent que ça fait le café et que ça tond la pelouse en même temps.


 
Dans les success story, j'ai un admin sys, qui ne sait faire que de l'ansi C et du bash. Il y a un an, justement, quand j'ai fait le test avec sonnet 3.5, il a vu l'ensemble du projet sortir en 10min compilation comprise (et pas juste le middleware :o)
 
Il est venu me demander d'arrêter ce qu'il faisait pour recréer un OCR qu'un de nos fournisseur fait - en Rust + vibe code. On parle d'une boite d'une centaine de personnes, spécialisé dans un type d'OCR et de rendu très particulier, avec beaucoup de travail manuel pour classifier ce que sort l'OCR et le rendre aussi parfait que possible (genre "il y a 4 articles dans la page, l'image 1 est associée au texte 3 et parle de X, le headline est associé au texte 1 et parle de Y, ..." )
 
 
Un an plus tard, le code qu'il a pondu, 100% IA vu qu'il ne sait pas coder (majoritairement gemini 2.5 de ce que j'ai compris - je pense qu'il a quand même de bonne base en Rust maintenant, il est pas con et aime bien voir ce qui se passe), coute 200e par mois, a un meilleur % de réussite que notre fournisseur (qui était pas mauvais, dans les 93%/95% suivant la langue), n'a pas de besoin de main d'oeuvre car 100% automatisé, et va donc radier une facture de 50/60Ke par mois puisque le fournisseur devient obsolète.
 
Le CEO a proposé de racheter une bouchée de pain ledit fournisseur -qui a vu le produit-, apparemment, le fournisseur y réfléchit sérieusement car il ne voit pas son business exister encore plusieurs années avec un produit aussi peu cher en face qui se permet en plus un plus haut % de réussite.
 
 
Mais oui l'IA c'est pour les code-jouets et autres hello world. D'ailleurs, en parlant de jouet et d'IA, un pico-muchacho si vous n'avez pas vu cette news croustillante:
https://www.nbcnews.com/tech/tech-n [...] rcna246956

n°2512724
rokhlan
Posté le 15-12-2025 à 21:41:22  profilanswer
 

[:basongwe:1]

n°2512725
Dion
Acceuil
Posté le 15-12-2025 à 21:47:12  profilanswer
 


Devil'sTiger a écrit :


C'est une attitude. Dans la boite ou je suis, le pole IT fait 60 personnes. La majorité ne touchent pas a l'IA car "ca ne marche pas".
 
 
Manque de bol, ca marche. Et le management le sait vu que c'est moi :o Résultat, ceux qui n'ont pas pris le train de l'IA, vont pour la plupart être viré (a vrai dire s'il arrive a sortir la même vitesse sans IA ca me va aussi, mais dans les faits ca n'est pas le cas, un bon ingé avec IA >>>>>> le reste, c'est flagrant). Résultat un écart est entrain d'apparaitre et c'est assez visible.
 
On estime au doigt mouillé de diminuer entre 1/3 et 1/2 notre pole informatique sous environ 2 ans, pour sortir le même nombre de fonctionnalités par mois.


 
Vous avez mis quoi en place pour leurs formations, montee en compétence et échanges de pratiques et compagnie ?


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°2512726
ratibus
Posté le 15-12-2025 à 22:04:26  profilanswer
 

Dion a écrit :


 
Vous avez mis quoi en place pour leurs formations, montee en compétence et échanges de pratiques et compagnie ?


Formation aux RH pour les ruptures co en masse + level up du service légal pour gérer les prud'hommes à venir :o

n°2512727
flo850
moi je
Posté le 15-12-2025 à 22:06:53  profilanswer
 

je garderai quand même une petite marge de manœuvre : tu ne payes pas le dixième du cout des modèles et des usages
donc soit tu paries sur l'amélioration massive des modèles ET que les investisseurs ne veulent pas retrouver leur mise de fond.
soit il va falloir payer, massivement.
Autant le 2nd point est jouable pour un google, autant ça me semble peu probable pour openai. Mais bon je peux me tromper

 

et il y a une raison pour laquelle il y a un paquet de métiers pénibles et manuels : l'humain n'est pas forcement plus cher

 

edit: doc ce servir d'un truc vibe codé au quotidien, c'est un pari sur la maintenance, mais bon le risque est plutôt faible. Par contre dépendre d'un service en ligne pour une tache critique c'est pas la même.

Message cité 2 fois
Message édité par flo850 le 15-12-2025 à 22:11:13

---------------

n°2512728
Dion
Acceuil
Posté le 15-12-2025 à 22:06:54  profilanswer
 

Il n’est pas dans des pays liberticides remplis d’assistés :o


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°2512729
Hermes le ​Messager
Breton Quiétiste
Posté le 15-12-2025 à 22:18:49  profilanswer
 

Bon, je vais order ça :
 
https://frame.work/gb/en/products/d [...] ration/new
 
Pour le boulot (le 395+ 64GB) :o


---------------
Expert en expertises
n°2512730
rokhlan
Posté le 15-12-2025 à 22:35:39  profilanswer
 

Hermes le Messager a écrit :

Bon, je vais order ça :
 
https://frame.work/gb/en/products/d [...] ration/new
 
Pour le boulot (le 395+ 64GB) :o


Ça me semble cher non ? [:transparency]

n°2512731
rufo
Pas me confondre avec Lycos!
Posté le 15-12-2025 à 22:35:43  profilanswer
 

Je pensais que c'était plus automatisé que ça chez Villeroy & boch la production d'éviers en céramique : https://www.youtube.com/watch?v=lg9_QvQ2RpQ  :/
Faut environ 7 jours pour faire un évier à cause de tous les temps de séchage et cuisson au four...


---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2512732
Hermes le ​Messager
Breton Quiétiste
Posté le 15-12-2025 à 22:53:33  profilanswer
 

rokhlan a écrit :


Ça me semble cher non ? [:transparency]


 
Non, c'est pas cher.  
 
C'est pour charger des (gros) models IA grace au fait que tu as de la "unified" RAM que tu peux allouer au GPU intégré. Tu peux donc tranquillou allouer 56 GB de RAM au GPU ou même 60 et garder 4 GB pour le système. moins de 2K pounds, je trouve pas ça cher. Si j'achète un gaming computer avec une 5090, ça va non seulement me couter plus cher, mais j'aurais que 32GB pour le GPU au maximum.
 
Et ne parlons pas des VRAIS compute nodes avec des vrais GPU pour l'IA hein...  :o


---------------
Expert en expertises
n°2512733
Hermes le ​Messager
Breton Quiétiste
Posté le 15-12-2025 à 22:54:29  profilanswer
 

Je l'achète demain. Je vous raconterai une fois que je l'aurais et que je l'aurais testé. :)


Message édité par Hermes le Messager le 15-12-2025 à 22:54:37

---------------
Expert en expertises
n°2512734
XaTriX
Posté le 15-12-2025 à 22:59:23  profilanswer
 

Hermes le Messager a écrit :

 

Non, c'est pas cher.

 

C'est pour charger des (gros) models IA grace au fait que tu as de la "unified" RAM que tu peux allouer au GPU intégré. Tu peux donc tranquillou allouer 56 GB de RAM au GPU ou même 60 et garder 4 GB pour le système. moins de 2K pounds, je trouve pas ça cher. Si j'achète un gaming computer avec une 5090, ça va non seulement me couter plus cher, mais j'aurais que 32GB pour le GPU au maximum.

 

Et ne parlons pas des VRAIS compute nodes avec des vrais GPU pour l'IA hein...  :o


C'est depuis quand la mémoire unifiée chez AMD :??:


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°2512735
Hermes le ​Messager
Breton Quiétiste
Posté le 15-12-2025 à 23:03:24  profilanswer
 

XaTriX a écrit :


C'est depuis quand la mémoire unifiée chez AMD :??:


 
LOL, c'est depuis qu'ils ont décidé que c'est bien plus efficace pour que la RAM serve autant au CPU qu'au GPU intégré. Et encore une fois, ce PC n'est fait ni pour Madame Michou, ni pour les joueurs hein... C'est clairement pour ceux qui chargent des modèles IA ou qui ont besoin d'une grosse mémoire pour le GPU (peut servir pour de la vidéo ou de la 3D aussi - pas en terme de speed, mais en terme de quantité de données traitées... C'est pas aussi rapide qu'une 5070. C'est comme une 5060, mais avec une énorme RAM dispo)
 
Edit :
 
Par exemple :
 

Citation :

Ollama's RAM requirements depend heavily on the model size (7B, 13B, 70B parameters), with 8GB RAM often enough for smaller models (7B) and 16GB+ recommended for 13B models, while 32GB to 64GB+ is needed for larger models, but the crucial factor is available VRAM (GPU memory) or unified memory for Apple Silicon, as models load there first; aim for at least 8GB RAM/VRAM, with 16GB+ offering much better performance for larger models.


Message édité par Hermes le Messager le 15-12-2025 à 23:07:32

---------------
Expert en expertises
n°2512736
XaTriX
Posté le 15-12-2025 à 23:07:02  profilanswer
 

Non mais c'est très bien, j'étais pas jus du coup je matais le matos chez Apple :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°2512737
XaTriX
Posté le 15-12-2025 à 23:07:16  profilanswer
 

On peut les chain en thunderbolt 5 ? :o


---------------
Proxytaf ? porn, xxx, hentai, camgirl, onlyfans, torrent, warez, crack, keygen, serials, darknet, tor, vpn, proxy, hacktool, metasploit, sql injection, password list, brute force, cp, gore, deepweb
n°2512738
Devil'sTig​er
Posté le 15-12-2025 à 23:08:24  profilanswer
 

Dion a écrit :


 
Vous avez mis quoi en place pour leurs formations, montee en compétence et échanges de pratiques et compagnie ?


 
 
 
Ca a commencé par de l'échange de bonne pratiques assez informel. Ensuite on a repéré les quelques uns qui semblaient apprécier l'idée (pas forcément des gens de l'IT d'ailleurs), et on les a grimper en compétence de prompt.
 
Faut dire qu'on avait un playground interne avec quelques millions d'articles pour tester les idées, ca aide.
 
 
 
De l'autre côté on a mis en place un repo git de toutes les commandes a mettre en global de cursor: les bonnes pratiques et la structuration du code en prompt global de Cursor, il y en a en fin de compte assez peu, c'est plus pour éviter cette bouille d'emoji que ces trucs te chient sans arrêt  :fou:  
 
 
 
Pour les formations, on a rien fait, on suivait GPT 1 puis 2 puis ChatGPT 3 (qui a été le premier qu'on a réellement installé en prod - a l'époque on a fait l'erreur de retrain des modèles), puisque ca peut nous intéresser dans notre coeur de métier depuis toujours. Donc on s'est dit qu'on ne trouverait juste personne de plus formé que nous même vu qu'on suivait OpenAI avant la hype... On a pas cherché si c'était le cas ou pas :D
 

ratibus a écrit :


Formation aux RH pour les ruptures co en masse + level up du service légal pour gérer les prud'hommes à venir :o


 
Le truc de la recette: lacher le mot redondance/motif économique :o
 
 

flo850 a écrit :

je garderai quand même une petite marge de manœuvre : tu ne payes pas le dixième du cout des modèles et des usages
donc soit tu paries sur l'amélioration massive des modèles ET que les investisseurs ne veulent pas retrouver leur mise de fond.


 
On a encore des OpenAI/Google, et ce sont pas des petites factures. Mais en nombre de feature, assez peu. On est surtout sur des modèles interne maintenant. On a je crois une 30ene de H100 quelque part pour toute la prod, environ 50% de nos usages sont sur Llama 7b (qui est chiant mais ca se fait, parce que 7b est mi-con :o ). Le reste est un mix de 70b, et OpenAi/Google/Groq/autre.
 
Donc une grosse partie du dev "qui a besoin d'IA" va consister a essayer de passer le prompt qui marche bien sur GPT ou autre, sur un minuscule Llama 7B vraiment pas très vaillant. Mais ca se fait et on réussit pas mal dans l'ensemble.
 
 

flo850 a écrit :


edit: doc ce servir d'un truc vibe codé au quotidien, c'est un pari sur la maintenance, mais bon le risque est plutôt faible. Par contre dépendre d'un service en ligne pour une tache critique c'est pas la même.


 
Notre logique a toujours été "trash code", bien avant l'IA, on préfère aller au plus vite, on ne fait pas de tests U, et on pousse en prod aussi vite que possible. De bonne chance que le code soit mis a la poubelle avant même que tu  trouves un bug. Fait ca sans arrêt et l'application va s'auto stabiliser rapidement avec la remonté de bug de l'autre côté.
 
On a l'avantage de ne pas toucher a des données sensibles, et donc on abuse de ce loophole au maximum.
 
Juste notre SLA doit pas atteindre 99%, mais bon de l'autre côté on a des features que 0 compétiteur ont, donc les clients ralent un peu mais pas trop :o
 
La seule règle qu'on a, c'est de protéger la BDD au maximum (y compris en vibe code), ca on déconne pas du tout, et pas de déployement le vendredi, mais c'est juste qu'on veut nos week ends et soirées serein.

Message cité 2 fois
Message édité par Devil'sTiger le 15-12-2025 à 23:14:37
n°2512739
Hermes le ​Messager
Breton Quiétiste
Posté le 15-12-2025 à 23:09:07  profilanswer
 

XaTriX a écrit :

On peut les chain en thunderbolt 5 ? :o


 
Je n'en suis pas sûr... Je ne pense pas.  
 
Tu peux faire ça avec les nvidias : https://www.nvidia.com/en-gb/produc [...] dgx-spark/
 
Mais c'est déjà bcp plus cher (à l'unité je veux dire). Et puis c'est de l'arm sous Linux. Je dis pas que c'est pas bien, mais certains trucs ne tourneront pas dessus. :o


Message édité par Hermes le Messager le 15-12-2025 à 23:09:57

---------------
Expert en expertises
n°2512740
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 16-12-2025 à 07:15:48  profilanswer
 

flo850 a écrit :

je garderai quand même une petite marge de manœuvre : tu ne payes pas le dixième du cout des modèles et des usages
donc soit tu paries sur l'amélioration massive des modèles ET que les investisseurs ne veulent pas retrouver leur mise de fond.
soit il va falloir payer, massivement.
Autant le 2nd point est jouable pour un google, autant ça me semble peu probable pour openai. Mais bon je peux me tromper

 

et il y a une raison pour laquelle il y a un paquet de métiers pénibles et manuels : l'humain n'est pas forcement plus cher

 

edit: doc ce servir d'un truc vibe codé au quotidien, c'est un pari sur la maintenance, mais bon le risque est plutôt faible. Par contre dépendre d'un service en ligne pour une tache critique c'est pas la même.


 
Et il y a un gros risque sur la dette technique, qui pèsera à moyen terme. La fraction de la base de code qui n'est maîtrisée par personne augmente, et on laisse très facilement passer des bugs cons mais discrets, qui vont nous péter à la gueule dans six mois ; sans compter les vibe coders qui n'en ont rien à carer et qui poussent tout ce qui compile tant que ça fait joli sur le package de promo, et pour qui il va falloir trouver une solution parce que ça décuple encore la vitesse d'acquisition de la dette.

n°2512741
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 16-12-2025 à 07:21:51  profilanswer
 

Devil'sTiger a écrit :

 

Notre logique a toujours été "trash code", bien avant l'IA, on préfère aller au plus vite, on ne fait pas de tests U, et on pousse en prod aussi vite que possible. De bonne chance que le code soit mis a la poubelle avant même que tu  trouves un bug. Fait ca sans arrêt et l'application va s'auto stabiliser rapidement avec la remonté de bug de l'autre côté.

 



Ah oui vous faisiez déjà du vibe coding, c'est clair que l'IA colle bien à votre culture.

n°2512742
FlorentG
Posté le 16-12-2025 à 08:25:06  profilanswer
 

hephaestos a écrit :

Et il y a un gros risque sur la dette technique, qui pèsera à moyen terme. La fraction de la base de code qui n'est maîtrisée par personne augmente, et on laisse très facilement passer des bugs cons mais discrets, qui vont nous péter à la gueule dans six mois ; s


Je suis entièrement d'accord avec ça.
 
J'ai même un exemple : j'ai eu le cas dans un truc que j'ai fait à moitié en vibe-code l'an dernier, histoire d'essayer la hype. Une gestion de "bons cadeaux." Ils expirent au bout d'un an. Sauf si t'en commande plusieurs "séries" d'un coup. La première série va expirer au bout d'un an. La deuxième 2 ans, la troisième 3 ans, etc. Et oui, ce con a utilisé un DateTime plutôt qu'un DateTimeImmutable (c'est du PHP), et modifie la date ($order_date->modify('+1 year'))) dans une boucle [:petrus75] Discret et vicelard, et forcément tu le captes des mois après parce qu'il y en a un qui a enfin commandé plusieurs séries d'un coup.
 
Je sais ce qu'on va me dire : "florentgsadnoir ta suite de tests était mal branlée" :o Bah oui, vu qu'elle était tout aussi vibe-codée que le reste [:petrus75]  [:petrus75] CQFD

n°2512743
flo850
moi je
Posté le 16-12-2025 à 08:25:45  profilanswer
 

hephaestos a écrit :


Ah oui vous faisiez déjà du vibe coding, c'est clair que l'IA colle bien à votre culture.


Oui c'est ce que j'allais écrire
Vous n'attendiez que le fait que la techno soir vaguement au point
Ici par exemple j'ai passé environ 3 jours sur un bug qui ne semble affecter qu'un client (pour le moment ) par exemple, et c'est tout à fait acceptable


---------------

n°2512744
Plam
Bear Metal
Posté le 16-12-2025 à 08:32:22  profilanswer
 

flo850 a écrit :


Oui c'est ce que j'allais écrire
Vous n'attendiez que le fait que la techno soir vaguement au point
Ici par exemple j'ai passé environ 3 jours sur un bug qui ne semble affecter qu'un client (pour le moment ) par exemple, et c'est tout à fait acceptable

 

On sait très bien que ce genre de bug va d'un coup, sans raison apparente, affecter 300 personnes et mettre le support sous l'eau, sans qu'on sache pourquoi du jour au lendemain :D

Message cité 3 fois
Message édité par Plam le 16-12-2025 à 08:32:31

---------------
Spécialiste du bear metal
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  26983  26984  26985  26986  26987  26988  26989  26990

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)