Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3416 connectés 

 

Sujet(s) à lire :
    - Who's who@Programmation
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  26313  26314  26315  ..  27201  27202  27203  27204  27205  27206
Auteur Sujet :

[blabla@olympe] Le topic du modo, dieu de la fibre et du monde

n°2484485
Harkonnen
Un modo pour les bannir tous
Posté le 14-11-2024 à 09:34:34  profilanswer
 

Reprise du message précédent :

Hermes le Messager a écrit :


 
Ça c'est parce qu'il ne le connait pas suffisamment.  :D


Ah si si, ça fait des années qu'il lui répond sur ses différents topics :D
 

Flaie a écrit :

+1 pas en MP
 
rufo modo c'est à nous tous nous faire un cadeau (assistant to the regional moderator).


 
1 blabla en 5 ans sur ce topic (Gatsu s'en souvient encore), je pense pas avoir besoin d'assistant, même si vous mériteriez une bonne fessée parfois :o
Depuis le début, il est admis que ce topic  sert de défouloir, et ce malgré les demandes de modération farfelues (suivez mon regard https://forum-images.hardware.fr/im [...] -12999.jpg  )


---------------
J'ai un string dans l'array (Paris Hilton)
mood
Publicité
Posté le 14-11-2024 à 09:34:34  profilanswer
 

n°2484486
Dion
Acceuil
Posté le 14-11-2024 à 09:40:11  profilanswer
 

Il y a défouloir et il y a des propos publics contraires à la loi pour leurs contenus sexistes, racistes, xénophobes ou diffamatoires, même si l'individu a un rôle de modérateur.
 
Machine modo ça serait quand même autre chose  [:cosmoschtroumpf]


---------------
It is not called show art
n°2484487
el_barbone
too old for this shit ...
Posté le 14-11-2024 à 09:48:34  profilanswer
 

Dion a écrit :

 

Machine modo ça serait quand même autre chose [:cosmoschtroumpf]


Méwé :fou:


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°2484488
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 09:55:51  profilanswer
 

Petite question gestion de données.
 
Vous avez des time series diverses et variées (par exemple des températures, des événements style ouverture/fermeture de vanne, etc), et vous voulez récupérer toutes les données à un timestamp donné, pour pouvoir reconstituer l'état du système à cet instant.
 
Comment vous vous y prendriez au niveau organisation des données pour une récupération efficace et souple ?


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484489
rufo
Pas me confondre avec Lycos!
Posté le 14-11-2024 à 09:59:30  profilanswer
 

Est-ce que tout ce que tu dois collecter comme données, c'est un type d'événement et une valeur numérique ?


---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2484490
Xavier_OM
Monarchiste régicide (fr quoi)
Posté le 14-11-2024 à 10:04:24  profilanswer
 

Je mets tout dans Log Parser pis voilà :o https://techcommunity.microsoft.com [...] dio/601131


---------------
Il y a autant d'atomes d'oxygène dans une molécule d'eau que d'étoiles dans le système solaire.
n°2484491
Flaie
Posté le 14-11-2024 à 10:16:22  profilanswer
 

Dion a écrit :

Il y a défouloir et il y a des propos publics contraires à la loi pour leurs contenus sexistes, racistes, xénophobes ou diffamatoires, même si l'individu a un rôle de modérateur.
 
Machine modo ça serait quand même autre chose  [:cosmoschtroumpf]


Demande de changement de modo = TT

n°2484492
Dion
Acceuil
Posté le 14-11-2024 à 10:19:16  profilanswer
 

Ajout  [:cosmoschtroumpf]  
 
On a encore fourmip  [:cosmoschtroumpf]


---------------
It is not called show art
n°2484493
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 10:23:57  profilanswer
 

el muchacho a écrit :

Petite question gestion de données.

 

Vous avez des time series diverses et variées (par exemple des températures, des événements style ouverture/fermeture de vanne, etc), et vous voulez récupérer toutes les données à un timestamp donné, pour pouvoir reconstituer l'état du système à cet instant.

 

Comment vous vous y prendriez au niveau organisation des données pour une récupération efficace et souple ?


N tables, indexées par timestamp, et on lit dans chaque table séparément ; ou si t'as aucun respect pour toi-même, une seule table avec l'état global mais bon à ce compte là on fait pas genre on se soucie de la gestion des données.

n°2484494
Xavier_OM
Monarchiste régicide (fr quoi)
Posté le 14-11-2024 à 10:27:48  profilanswer
 

Vous avez connaissance d'un bon outil pour un diff qui analyserait la ligne de droite à gauche ? (sans appeler rev ou autre pour juste renverser le texte) Ça serait pratique pour chercher la première diff en partant de la fin mais je trouve rien... comment on fait pour diff deux txt en arabe en fait...


---------------
Il y a autant d'atomes d'oxygène dans une molécule d'eau que d'étoiles dans le système solaire.
mood
Publicité
Posté le 14-11-2024 à 10:27:48  profilanswer
 

n°2484495
rufo
Pas me confondre avec Lycos!
Posté le 14-11-2024 à 10:33:55  profilanswer
 

hephaestos a écrit :


N tables, indexées par timestamp, et on lit dans chaque table séparément ; ou si t'as aucun respect pour toi-même, une seule table avec l'état global mais bon à ce compte là on fait pas genre on se soucie de la gestion des données.


S'il part sur un SGBDR, une seule table avec un champ indiquant le type d'événement, le timestramp et la valeur numérique, la table étant partitionnée sur le type, par ex, ça peut le faire.
Sinon, un stockage dans du NoSQL.
Faut voir aussi le volume et les traitements qu'il veut faire.


---------------
Astres, outil de help-desk GPL : http://sourceforge.net/projects/astres, ICARE, gestion de conf : http://sourceforge.net/projects/icare, Outil Planeta Calandreta : https://framalibre.org/content/planeta-calandreta
n°2484496
nraynaud
lol
Posté le 14-11-2024 à 10:37:24  profilanswer
 

el muchacho a écrit :

Petite question gestion de données.
 
Vous avez des time series diverses et variées (par exemple des températures, des événements style ouverture/fermeture de vanne, etc), et vous voulez récupérer toutes les données à un timestamp donné, pour pouvoir reconstituer l'état du système à cet instant.
 
Comment vous vous y prendriez au niveau organisation des données pour une récupération efficace et souple ?


y'a une partie un peu chiante, parce que pour l'état du système à un instant T, il faut collecter les évènements utiles qui ont eu lieu avant (genre la dernière fois que la vanne a bougé avant T).
 
 
La méthode la plus naïve : tu stocke les évènements dans l'ordre du temps et quand tu fais une analyse, tu va chercher le point temporel de ton analyse, et tu remontes le temps en complétant les dimensions de l'état du système. Tu arrête de remonter quand l'état est complet.
 
Ensuite il faut adapter aux circonstances : Est-ce qu'il y a une tonne de dimensions dans l'état du système ? Est-ce que le système bouge beaucoup ? Est-ce que tu peux fragmenter l'état du systèmes avec des dimensions qui bougent beaucoup et des dimensions qui bougent moins vite.


---------------
trainoo.com, c'est fini
n°2484497
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 10:41:42  profilanswer
 

rufo a écrit :


S'il part sur un SGBDR, une seule table avec un champ indiquant le type d'événement, le timestamp et la valeur numérique, la table étant partitionnée sur le type, par ex, ça peut le faire.


 
 [:ripthejacker:3]  

rufo a écrit :


Sinon, un stockage dans du NoSQL.


 
 [:ripthejacker:3]

n°2484498
Dion
Acceuil
Posté le 14-11-2024 à 10:42:51  profilanswer
 

 


Toi t'as jamais travaillé dans une ESN on dirait, une telle expertise c'est direct un poste de Tech Lead senior :o


Message édité par Dion le 14-11-2024 à 10:43:08

---------------
It is not called show art
n°2484499
Harkonnen
Un modo pour les bannir tous
Posté le 14-11-2024 à 10:49:28  profilanswer
 

Dion a écrit :

Ajout  [:cosmoschtroumpf]  
 
On a encore fourmip  [:cosmoschtroumpf]


Il est encore vivant  fourmip ? [:xx_xx]
Sinon y'a Gilou aussi, et Elmo :o


---------------
J'ai un string dans l'array (Paris Hilton)
n°2484500
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 10:49:31  profilanswer
 

nraynaud a écrit :

Je crois que je consomme un peu trop de youtube [:pingouino]
y'a un mec qui vient de sortir l'arbre phylogénétique de la peste noire pour discourir dessus [:pingouino]


 
C'est sûrement très intéressant. Un lien ? :o


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484501
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 10:50:38  profilanswer
 


Et oui, bon rétablissement à ton paternel.


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484502
Dion
Acceuil
Posté le 14-11-2024 à 10:51:26  profilanswer
 

Harkonnen a écrit :


Il est encore vivant  fourmip ? [:xx_xx]
Sinon y'a Gilou aussi, et Elmo :o


On sait bien que tu es dans le même EHPAD que Gilou  [:cosmoschtroumpf]  
Et Elmo il agit et sanctionne les propos irresponsables de Flaie, il a conservé un peu de culture  [:minor]


---------------
It is not called show art
n°2484503
gatsu35
Blablaté par Harko
Posté le 14-11-2024 à 10:51:30  profilanswer
 

nraynaud a écrit :

Je crois que je consomme un peu trop de youtube [:pingouino]
y'a un mec qui vient de sortir l'arbre phylogénétique de la peste noire pour discourir dessus [:pingouino]


tu t'éparpilles un petit peu je trouve :D


---------------
Blablaté par Harko
n°2484504
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 11:03:29  profilanswer
 

hephaestos a écrit :


N tables, indexées par timestamp, et on lit dans chaque table séparément ; ou si t'as aucun respect pour toi-même, une seule table avec l'état global mais bon à ce compte là on fait pas genre on se soucie de la gestion des données.


Oui, je comptais partir sur quelque chose comme ça. Des time series avec pas/ très peu de clefs étrangères, et indexées sur le timestamp.

 
nraynaud a écrit :


y'a une partie un peu chiante, parce que pour l'état du système à un instant T, il faut collecter les évènements utiles qui ont eu lieu avant (genre la dernière fois que la vanne a bougé avant T).

 


La méthode la plus naïve : tu stocke les évènements dans l'ordre du temps et quand tu fais une analyse, tu va chercher le point temporel de ton analyse, et tu remontes le temps en complétant les dimensions de l'état du système. Tu arrête de remonter quand l'état est complet.

 

Ensuite il faut adapter aux circonstances : Est-ce qu'il y a une tonne de dimensions dans l'état du système ? Est-ce que le système bouge beaucoup ? Est-ce que tu peux fragmenter l'état du systèmes avec des dimensions qui bougent beaucoup et des dimensions qui bougent moins vite.

 

Oui, c'est l'idée.
L'autre idée, c'est de conserver tout l'état du système en RAM et de tout écrire à intervalles réguliers dans une seule transaction.L'avantage est que c'est assez simple à implémenter et très rapide en requête, l'inconvénient étant que ça génère une quantité de données bien plus importante que nécessaire (j'ai aucun respect pour moi-même :o).

 

Comme tu dis, si je fragmente en ordre de grandeurs, je peux faire ça. Par exemple toute les données qui se mettent à jour toutes les secondes ou sub secondes dans un sub-état, toutes celles qui se mettent à jour toutes les 1mn à 10mn dans un autre sub-état, toutes celles de l'ordre de l'heure ou plus dans un 3e sub-état.De sorte que je limite les duplications de données, et je n'ai que 3 requêtes à faire pour récupérer les 3 sub-états et reconstituer l'état complet à l'instant T.

Message cité 3 fois
Message édité par el muchacho le 14-11-2024 à 11:09:28

---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484506
nraynaud
lol
Posté le 14-11-2024 à 11:07:52  profilanswer
 

el muchacho a écrit :


 
C'est sûrement très intéressant. Un lien ? :o


https://youtu.be/_u3mul4gaPE?si=Yn_ [...] Sqx&t=1047
here you go, 40min sur une possible épidémie de peste au néolitique.


---------------
trainoo.com, c'est fini
n°2484507
nraynaud
lol
Posté le 14-11-2024 à 11:16:43  profilanswer
 

el muchacho a écrit :


 
Oui, c'est l'idée.
L'autre idée, c'est de conserver tout l'état du système en RAM et de tout écrire à intervalles réguliers dans une seule transaction.L'avantage est que c'est assez simple à implémenter et très rapide en requête, l'inconvénient étant que ça génère une quantité de données bien plus importante que nécessaire (j'ai aucun respect pour moi-même :o).
 
Comme tu dis, si je fragmente en ordre de grandeurs, je peux faire ça. Par exemple toute les données qui se mettent à jour toutes les secondes ou sub secondes dans un sub-état, toutes celles qui se mettent à jour toutes les 1mn à 10mn dans un autre sub-état, toutes celles de l'ordre de l'heure ou plus dans un 3e sub-état.De sorte que je limite les duplications de données, et je n'ai que 3 requêtes à faire pour récupérer les 3 sub-états et reconstituer l'état complet à l'instant T.


tu as aussi des manières de présenter les choses, si tu enregistre des fragements d'état à intervalle régulier (des checkpoints), tu peux les garder sous forme de cache ou de vue matérialisée, et pour le consommateur de l'API, c'est régularisé. ça permet d'introduire des fonctions style "butte le cache" ou "donne-moi l'état à telle date sans utiliser de cache" si les utilisateurs perdent confiance dans la dénormalisation.


---------------
trainoo.com, c'est fini
n°2484508
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 11:41:42  profilanswer
 

el muchacho a écrit :


 
Oui, c'est l'idée.
L'autre idée, c'est de conserver tout l'état du système en RAM et de tout écrire à intervalles réguliers dans une seule transaction.L'avantage est que c'est assez simple à implémenter et très rapide en requête, l'inconvénient étant que ça génère une quantité de données bien plus importante que nécessaire (j'ai aucun respect pour moi-même :o).
 
Comme tu dis, si je fragmente en ordre de grandeurs, je peux faire ça. Par exemple toute les données qui se mettent à jour toutes les secondes ou sub secondes dans un sub-état, toutes celles qui se mettent à jour toutes les 1mn à 10mn dans un autre sub-état, toutes celles de l'ordre de l'heure ou plus dans un 3e sub-état.De sorte que je limite les duplications de données, et je n'ai que 3 requêtes à faire pour récupérer les 3 sub-états et reconstituer l'état complet à l'instant T.


Non mais si tu pars par là, stop tout de suite. Tu as deux solutions : soit tu veux faire un truc propre et robuste dans le temps, et tu crées une base de données normalisées ; soit tu es confiant que ça ne va pas exploser au point d'être un problème, et tu veux gagner un peu de temps et tu stockes l'état global à chaque changement. Si tu sais déjà que tu as besoin de hacks pour faire marcher la seconde solutions, c'est que tu n'en veux pas.

n°2484509
DDT
Few understand
Posté le 14-11-2024 à 11:41:53  profilanswer
 

el muchacho a écrit :


Oui, je comptais partir sur quelque chose comme ça. Des time series avec pas/ très peu de clefs étrangères, et indexées sur le timestamp.

 


Dans ce cas pourquoi pas utiliser une BDD optimisée pour ça?
Selon ce que tu veux faire exactement: TimescaleDB, InfluxDB, Prometheus, VictoriaMetrics... voire ClickHouse.

Message cité 1 fois
Message édité par DDT le 14-11-2024 à 11:47:05

---------------
click clack clunka thunk
n°2484510
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 11:53:08  profilanswer
 

hephaestos a écrit :


Non mais si tu pars par là, stop tout de suite. Tu as deux solutions : soit tu veux faire un truc propre et robuste dans le temps, et tu crées une base de données normalisées ; soit tu es confiant que ça ne va pas exploser au point d'être un problème, et tu veux gagner un peu de temps et tu stockes l'état global à chaque changement. Si tu sais déjà que tu as besoin de hacks pour faire marcher la seconde solutions, c'est que tu n'en veux pas.


 
Quel est le problème avec la solution que je propose ?


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484511
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 11:54:39  profilanswer
 

DDT a écrit :

Dans ce cas pourquoi pas utiliser une BDD optimisée pour ça?
Selon ce que tu veux faire exactement: TimescaleDB, InfluxDB, Prometheus, VictoriaMetrics... voire ClickHouse.


 
Je vais examiner ce genre de solution aussi.


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484512
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 11:58:35  profilanswer
 

el muchacho a écrit :

 

Quel est le problème avec la solution que je propose ?


Elle est trop compliquée, sans aucune nécessité.

n°2484513
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 12:00:21  profilanswer
 

hephaestos a écrit :


Elle est trop compliquée, sans aucune nécessité.


 
Ben si, parce que la base va probablement être requêtée en mode OLAP. Donc une normalisée ne sera pas super pour ça.


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484514
DDT
Few understand
Posté le 14-11-2024 à 12:04:14  profilanswer
 

el muchacho a écrit :


 
Je vais examiner ce genre de solution aussi.


Car bon, entre l'IoT et les douzaines d'outils d'observation et collecte de métriques, c'est vraiment un domaine complètement saturé, ça m'étonnerait que tes besoins soient si spéciaux qu'il faille réinventer la roue.
 
Perso avec le volume et la quantité de time series qu'on gère on fait tout en streaming avec Kafka et S3, mais plus pour une question d'interfaçage avec les autres équipes qu'une vraie contrainte technique.
 
J'ai pas essayé ClickHouse dans mon cas mais je pense qu'on serait très loin d'arriver à le mettre à mal.
Même si c'est pas spécialement fait pour des time series, ils ont un peu tué le game en OLAP, à moins d'arriver à des volumes où il faut se tourner vers du vrai data warehousing.


---------------
click clack clunka thunk
n°2484515
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 12:10:30  profilanswer
 

el muchacho a écrit :

 

Ben si, parce que la base va probablement être requêtée en mode OLAP. Donc une normalisée ne sera pas super pour ça.


Tu peux élaborer ?

n°2484516
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 12:45:18  profilanswer
 

hephaestos a écrit :


Tu peux élaborer ?


 
Parmi les applications dont les data analysts peuvent avoir besoin, il y a l'évolution du système dans le temps, sur une plage de temps indéterminée. Par exemple l'évolution d'un  nuage à N dimensions. Tu veux soit avoir toutes les données en mémoire pour cela, ou faire des requêtes rapides en temps réel (ou quasi réel).


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484517
el muchach​o
Comfortably Numb
Posté le 14-11-2024 à 12:47:28  profilanswer
 

DDT a écrit :


Car bon, entre l'IoT et les douzaines d'outils d'observation et collecte de métriques, c'est vraiment un domaine complètement saturé, ça m'étonnerait que tes besoins soient si spéciaux qu'il faille réinventer la roue.

 

Perso avec le volume et la quantité de time series qu'on gère on fait tout en streaming avec Kafka et S3, mais plus pour une question d'interfaçage avec les autres équipes qu'une vraie contrainte technique.

 

J'ai pas essayé ClickHouse dans mon cas mais je pense qu'on serait très loin d'arriver à le mettre à mal.
Même si c'est pas spécialement fait pour des time series, ils ont un peu tué le game en OLAP, à moins d'arriver à des volumes où il faut se tourner vers du vrai data warehousing.

 

C'est la proposition de départ (sauf pour S3 of course), mais il n'empêche que même avec ces solutions, il faut être un minimum intelligent dans le stockage des données.


Message édité par el muchacho le 14-11-2024 à 12:50:38

---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2484518
sligor
Posté le 14-11-2024 à 13:18:06  profilanswer
 

https://www.ohrg.org/cycling-typing
 
ah enfin une bonne raison d'utiliser un split keyboard !


---------------
qwerty-fr
n°2484519
FlorentG
Posté le 14-11-2024 à 13:26:29  profilanswer
 

sligor a écrit :

https://www.ohrg.org/cycling-typing
 
ah enfin une bonne raison d'utiliser un split keyboard !


J'vais scier mon MS 4000 en 2  [:epok]

n°2484520
masklinn
í dag viðrar vel til loftárása
Posté le 14-11-2024 à 13:33:58  profilanswer
 

sligor a écrit :

https://www.ohrg.org/cycling-typing
 
ah enfin une bonne raison d'utiliser un split keyboard !


À ce stade là, passer sur un chorded semble une bonne idée.


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2484521
Hermes le ​Messager
Breton Quiétiste
Posté le 14-11-2024 à 13:38:13  profilanswer
 

el muchacho a écrit :


 
C'est sûrement très intéressant. Un lien ? :o


 
 [:do not want]  
 
Donne mois tes recos Youtube, je te dirai qui tu es. :o


Message édité par Hermes le Messager le 14-11-2024 à 13:38:27

---------------
Expert en expertises
n°2484522
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 14:06:27  profilanswer
 

el muchacho a écrit :

 

Parmi les applications dont les data analysts peuvent avoir besoin, il y a l'évolution du système dans le temps, sur une plage de temps indéterminée. Par exemple l'évolution d'un  nuage à N dimensions. Tu veux soit avoir toutes les données en mémoire pour cela, ou faire des requêtes rapides en temps réel (ou quasi réel).


Avoir des données normalisées n'est contradictoire ni avec le fait de les garder en mémoire (au contraire, si c'est normalisé c'est optimisé pour l'espace), ni avec le fait de faire des requêtes rapides.


Message édité par hephaestos le 14-11-2024 à 14:07:39
n°2484523
Jubijub
Parce que je le VD bien
Posté le 14-11-2024 à 14:08:23  profilanswer
 


ah mias je suis pas d'accord non plus. Je trouve que c'est du foutage de gueule, particulièrement après avoir augmenté Premium
 

el muchacho a écrit :

Petite question gestion de données.
 
Vous avez des time series diverses et variées (par exemple des températures, des événements style ouverture/fermeture de vanne, etc), et vous voulez récupérer toutes les données à un timestamp donné, pour pouvoir reconstituer l'état du système à cet instant.
 
Comment vous vous y prendriez au niveau organisation des données pour une récupération efficace et souple ?


 

nraynaud a écrit :


y'a une partie un peu chiante, parce que pour l'état du système à un instant T, il faut collecter les évènements utiles qui ont eu lieu avant (genre la dernière fois que la vanne a bougé avant T).
 
 
La méthode la plus naïve : tu stocke les évènements dans l'ordre du temps et quand tu fais une analyse, tu va chercher le point temporel de ton analyse, et tu remontes le temps en complétant les dimensions de l'état du système. Tu arrête de remonter quand l'état est complet.
 
Ensuite il faut adapter aux circonstances : Est-ce qu'il y a une tonne de dimensions dans l'état du système ? Est-ce que le système bouge beaucoup ? Est-ce que tu peux fragmenter l'état du systèmes avec des dimensions qui bougent beaucoup et des dimensions qui bougent moins vite.


 
+1 avec nraynaud : stocker en plusieurs tables ou pas ça change pas le fait que dans l'exemple que donne Much, la température va varier probablement en fonction du temps depuis la dernière ouverture / fermeture de vanne.
Ma première question serait : comment tu vas utiliser ces données ? si tu cherches à faire un algo de régulation, l'algo va dicter comment tes données doivent être structurées. L'autres question c'est : quelles questions tu vas avoir pour ces données ?
 
Si c'est juste du reporting je dénormaliserais le truc : table des temperatures avec des colonnes en plus indiquant l'étant du système (valve ouverte ou fermée, voir la duration depuis le dernier changement d'état, ou delta de temperature depuis le dernier changement. Encore une fois t'es pas obligé de stocker ça (tu peux garder une table par type d'évènement), mais tu vas vouloir l'avoir en mémoire pour faciliter tes analysers.


---------------
Jubi Photos : Flickr - 500px
n°2484524
hephaestos
Sanctis Recorda, Sanctis deus.
Posté le 14-11-2024 à 14:12:48  profilanswer
 

Jubijub a écrit :


Ma première question serait : comment tu vas utiliser ces données ? si tu cherches à faire un algo de régulation, l'algo va dicter comment tes données doivent être structurées. L'autres question c'est : quelles questions tu vas avoir pour ces données ?

 

Si c'est juste du reporting je dénormaliserais le truc : table des temperatures avec des colonnes en plus indiquant l'étant du système (valve ouverte ou fermée, voir la duration depuis le dernier changement d'état, ou delta de temperature depuis le dernier changement. Encore une fois t'es pas obligé de stocker ça (tu peux garder une table par type d'évènement), mais tu vas vouloir l'avoir en mémoire pour faciliter tes analysers.

 

Aaaaaaaaaaah mais pourquoi ?!? Et pourquoi changer la façon dont on les stocke en fonction de la façon dont on les utilise ? Les données ne changent pas, les usages, si, en plus il peut y en avoir plusieurs ! C'est de la premature over engineering optimization, TNVPEAB.

 

Je maintiens qu'il y a pas 36 solutions pour le stockage des données (à moins d'exigences hyper pointues, on n'est manifestement pas dans ce cas-là). Il doit être trivial à comprendre et à utiliser, donc soit c'est normalisé, soit c'est complétement dénormalisé mais c'est certainement pas un truc hybride pour soit-disant avoir le meilleur des deux mondes en rejetant la complexité sur la couche la plus profonde.

Message cité 3 fois
Message édité par hephaestos le 14-11-2024 à 14:19:49
n°2484526
Dion
Acceuil
Posté le 14-11-2024 à 14:17:31  profilanswer
 

hephaestos a écrit :


 
Aaaaaaaaaaah mais pourquoi ?!? Et pourquoi changer la façon dont on les stocke en fonction de la façon dont on les utilise ? Les données ne changent pas, les usages, si, en plus il peut y en avoir plusieurs ! C'est de la premature over engineering optimization, TNVPEAB.


T'as deux fois du budget et deux achievements :)


---------------
It is not called show art
n°2484527
Jubijub
Parce que je le VD bien
Posté le 14-11-2024 à 14:25:08  profilanswer
 

hephaestos a écrit :


 
Aaaaaaaaaaah mais pourquoi ?!? Et pourquoi changer la façon dont on les stocke en fonction de la façon dont on les utilise ? Les données ne changent pas, les usages, si, en plus il peut y en avoir plusieurs ! C'est de la premature over engineering optimization, TNVPEAB.
 
Donc, 1. prouve-moi que tu as besoin de données non normalisées, et après on discute.


 
1/  
- d'accord pour le besoin, d'où mes questions à Much. En effet si tout ce qu'il doit faire c'est afficher les données / faire un graph des temperatures, aucun besoin
- dénormaliser c'est un gain de place, ou de réutilisabilité. Sur des time series c'est pas évident que tu vas beaucoup compresser, et pour lea réutilisabilité ça dépend de plein de facteurs. Prouve moi que tu vas devoir normaliser :o
- tu peux aussi optimiser ton stockage pour la lecture, ou pour cacher des calculs intermédiaires.
2/ si comme ça semble etre le cas d'après les infos de Much, on veut résonner sur l'état d'un système dans le temps, ou voir l'effet d'une action X sur une variable Y, tu vas sans arrêt devoir recalculer des trucs genre delta de temps depuis la dernière action de type X. Ces deltas ne vont pas changer dans le temps, donc ça fait sens de les cacher.
 
Je ne dispute pas le fait que tu puisses les stocker comme tu veux, y compris de façon normalisée. Par contre tu peux vouloir stocker une représentation intermédiaire avec ces calcules de delta déjà fait. Idéalement si le système qui fait les logs de température a accès à l'état des trucs genre valve, etc... tu peux meme calculer ces trucs en mode stream.


---------------
Jubi Photos : Flickr - 500px
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  26313  26314  26315  ..  27201  27202  27203  27204  27205  27206

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)