Bonjour,
j'ai un probleme un peu complexe a vous soumettre.
Voila, d'abord je travaille avec scilab. Mais je veux bien changer de langage s'il le faut.
J'ai une fonction f qui dépend de 6 paramètres (le nombre importe peu), et d'une fonction g:
Avec scilab, je calcule le résultat de l'ODE dg/dt=f(t,g)
j'obtiens donc la fonction g(t)
Par ailleurs je sais à quoi doit ressembler cette fonction g(t).
Je souhaite calibrer les 6 paramètres de la fonction f à l'aide de tout ce mic mac. Par exemple en utilisant un moindre carré sur la différence entre g et la vraie fonction g?
Je n'y connais pas grand chose en optimisation, et j'ai du mal a comprendre les documentations que je trouve et qui sont très théoriques.
Dans mon cas de figure, avez vous une idée de fonction de scilab que je pourrai utiliser?
Ou même de méthode?
Suis je clair dans l'explication de mon problème?
Merci de votre aide.