Hello !
J'ai un souci algorithmique pour mon programme, et je trouve pas de solution, étant une bite poilue hydrocéphale en statistique.
Je prends une mesure toutes les X secondes pendant 30 minutes. Pas plus de 10 mesures durant tout l'intervalle.
Le taux d'erreur est généralement de 1/2%, avec des pointes a 10% de temps en temps.
Mon problème est : Comment départager ces lectures des erreurs de mesure.
Je pensais faire une moyenne toute bête. mais je perds énormément en précision.
Je peux toujours essayer de faire une moyenne, calculer l'écart type, virer les plus loins, recalculer la moyenne, recalculer l'écart type... ca me semble assez lourd.
De plus, mes utilisateurs peuvent faire en sorte qu'une valeur plus basse soit présente pendant le test, en essayant de se "faire passer" comme ayant une plus grosse valeur...
Vous feriez quoi a ma place ?
Mon but :
-Détecter les tricheurs et prendre en compte la valeur modifiée.
-Supprimer les erreurs de 10%
J'avoue, je râme un peu