Citation :
Pardon ?
Tu prends une colonne, et tu fais d(t)=ordonnée du point du toit en colonne x au temps t- ordonnée du point du toit en colonne x au temps 0
|
Justement, quel point tu as choisi?
Vu la dynamique de l'effondrement, avec les oscillations/les rotations et autres, il vaut mieux garder le même point que l'étude du NIST.
Citation :
Déjà dit...
2.1 m/s² et 6 m/s²
|
Et donc? Ils servent à montrer quoi? C'est la distance parcourue par un point ayant une accélération constante de 2.1 et 6?
Citation :
Non.
Marge d'erreur : ~ 1 m.
|
Tu peux être plus précis (calcul tout ça...)
Citation :
Ahah !
Parce le NIST ne calcule pas tout l'effondrement.
Faudrait quand même pas exagérer, ils ont eu peur de continuer.
|
Tu as donc prolongé la courbe du NIST sur la graphe 2?
Pourquoi tu ne te contentes pas de l'analyse sur les 5,4s qui contiennent phase 1-2-3?
Comment tu calcules les data après ces 5,4s alors que, sur la vidéo, le toit du batiment (le point où le NIST calcule sa descente pour être plus précis disparait après 242ft(73m de chute)
Ils ont expliqué pourquoi ils n'ont pas extrapolé...Parce que c'était une extrapolation justement. D'ou, accroissement de l'erreur.
Le premier graphe, il est sensé représenter quoi en fait? C'est des m/s en abscisse?
Citation :
Tu es censé comparer le graphe 1 et le graphe 2 et conclure sur le modèle du NIST.
|
Je ne vois pas en quoi je pourrais conclure alors que tes data récoltées ne correspondent pas à celle du NIST et que tu n'as aucun profil de vitesse pour voir les différentes phases.
Donne moi déjà les mêmes graphes que le NIST au niveau du profil de vitesse, qu'on compare ce qui est comparable.
Citation :
LOL
Il est dans les temps si on choisit bien la moyenne...
|
Il a testé modèle avec damage et sans damage...
Les différents intervalles de temps entre chaque étape sont plutot corrects, la marge d'erreur au niveau des événements non-observés est malheureusement inévitable.
Leur logiciel arrive a très bien s'en sortir malgré toutes les approximations faites. Y a pas grand chose à dire d'autres.
Citation :
Non.
Pas de vitesse mais de position .
|
Bah si, tu récoltes les données de position mais tes calculs de vitesse ne sont pas exploitables.
Du coup, tu ne peux pas détecter les différentes phases du NIST et cadre un modèle dessus.
Donc, calcule tes données de vitesse, s'il te plait.
Citation :
Données du NIST ~= fonction du NIST
|
Oui, donc, il te faut les données de vitesse pour pouvoir coller ta fonction dessus et vérifier que ca marche.
Compare ce qui est comparable.
Citation :
Tout dépend de la précision...
Je peux faire des moyennes sur 0.1 s, ça fera 4 m/s de marge d'erreur (oui, c'est énorme, mais moorea se permet quand même de conclure qu'il y a eu des chocs dans l'effondrement du WTC 1...).
|
Fais le, ça te permettra d'obtenir les différentes phases du profil de vitesse et donc de pouvoir comparer ton modèle et le modèle du NIST.
Je ne parle pas des chocs sur le plancher ou autres.
Evite de mélanger WTC7 et WTC 1 ok?
Moorea ne conclut pas réellement, il indique surtout que les données ne sont pas contradictoires avec le modèle de Bazant et NIST:
Citation :
La courbe jaune (deuxième formule) a bien entendu tendance à « lisser » les vitesses. Sur la rose (première formule), on peut supposer (je dis bien supposer) que les sauts correspondent à des impacts. Pas sur les premiers points puisque la mesure n’est pas suffisamment significative, mais à partir de 1,5 seconde, pourquoi pas ? (ratio [précision mesure/intervalle mesuré] < 0.33 pour la rose, < 0.16 pour la jaune à partir de 1.34s). De toute façon MacQueen et Szamboti ne s'embêtent pas, eux, avec ce genre de considérations : les chiffres et courbes sont donnés 'bruts de fonderie' comme autant de vérités indiscutables !
Remarquons au passage que les sauts ont tendance à s'estomper au fur et à mesure de l'écoulement du temps, ce qui peut traduire le fait que l’inertie du plancher impacté devient faible par rapport au reste des éléments au-dessus.
Tout cela me fait dire que l'article est complètement à côté de la plaque car ensuite, les auteurs se servent du fait que leur courbe est 'lisse' pour 'démontrer' que les impacts entre planchers n'ont pas décéléré la chute du bloc supérieur !
Autrement dit, après un lissage de courbe qu'ils imposent, totalement absurde sur le plan scientifique, ils s'écrient : vous voyez bien qu'il n'y a pas de saut dans le graphe des vitesses !!!
|
A l'inverse, le papier défendu par les troofeurs affirmait le contraire sur base de cette régression.
Tu déformes tout, c'est lassant.
Et ca n'a rien à faire dans notre discussion.
Tu as un calcul pour la marge d'erreur de 4m/s? C'est un intervalle de confiance 99%?
Citation :
Mais si, on peut en ne regardant pas les vitesses mais les positions.
|
Tu loupes de l'information.
Coller à la dérivée, c'est mieux que coller en absolu.
Il faut donc regarder les vitesses si elles sont exploitables ( et elles le sont). Rester sur les positions mène à: on ne peut rien conclure.
Citation :
Qui fit mal...
Mais passons...
|
Au niveau de la vitesse et des conditions initiales, il fit bien.
Au niveau de la position, si c'est de ton graphe 2 dont il s'agit, je ne vois guère de problème.
Et les WTC7.data, c'est les tiennes ou celles du NIST? Elles sont ou celles du NIST le cas échéant?
Citation :
Ce n'est pas interdit, tu peux refaire tout ça .
|
Ha pardon, mais c'est toi qui arrive avec des données et tu ne les compares même pas aux données brutes du NIST.
Puis pas de profil de vitesse...
Donc, donne moi déjà ça que l'on compare si ton calcul de position est correct.
Citation :
Je n'ai pas montré de modélisation ici.
Sinon, je modélise en général par a*min(0,x-t)^3+b*min(0,x-t)^2.
|
c et d = 0, c'est noté.
Car la modélisation sur reopen, c'était 4 paramètres.
Citation :
Aucun problème : le départ est très mal connu (à 0.4 s près).
Et puis, si moi je n'ai pas envie d'avoir une accélération nulle au départ, je ne vois pas le problème.
Exemple : une pomme qui tombe dans le vide sur Terre a a(0)=9.81 m/s²
|
Si c'est à 0.4s près, il faut tracer les profils en fonction de cette marge d'erreur et voir si les données sont dans l'intervalle.
Je ne vois pas le problème.
Sauf que...ici, ce n'est pas une pomme.
C'est un batiment constitué de poutres qui vont se déformer (phase 1), rompre et n'opposer aucune résistance (phase 2, voir dynamique totale de l'effondrement expliquée par le NIST), et puis les débris (phase 3) qui ralentissent l'effondrement.
Donc, la condition initiale est tout à fait logique vu qu'on considère une accélération variable.
Alors que dans le cas d'une pomme, elle est constante. Forcément, poser une condition initiale pour une constante, c'est un peu stupide.
Mais dans le cas variable, c'est tout à fait normal de commencer à zéro.
Il y aura alors, durant les premiers instants, une période transitoire.
Pour poser ta condition initiale, tu pars du principe que l'effondrement commence en chute libre et va se poursuivre en chute libre. Tu inverses les choses.
De plus, si cela avait été le cas réellement, le modèle du NIST n'aurait montré aucune phase 1, le régime transitoire de la fonction de vitesse aurait été très court (idem pour l'accélération).
Leur modèle permet de cadre avec énormément de profil de vitesse/accélération.
Le tien par contre est fortement limité par tes conditions sur l'accélération.
Et celles-ci ne sont pas valables dans le cas qui nous concerne avec accélération variable.
Je répète,
Les conditions initiales, c'est a(0) = 0, v(0) = 0, m(0) = 0.
Le cas a(0) = 9.81 correspondrait à un objet ne subissant aucune contrainte/forces et dont on impose qu'il commence sa chute avec a = g.
Or, rien ne prouve que c'est le cas pour le WTC7.
Et d'ailleurs, les profils de vitesse contredisent cette affirmation.
Il faut donc, dans le cas général, poser a(0) = 0 comme condition initiale dans le cas d'une accélération variable.
Ton raisonnement est faux, j'en suis navré.
Citation :
5.4 s à partir de quoi ?
That is the question...
|
A partir du début de l'effondrement du point concerné.
Si tu tiens compte de la marge d'erreur, tu vas obtenir le profil moyen et deux profils représentant l'intervalle de confiance.
Si les données sont dedans, et en fonction du quantile, on peut être assez confiant.
Voila, voilou.
Au boulot! Et bonne continuation!