Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2031 connectés 

 

Sujet(s) à lire :
    - Who's who@Programmation
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  24848  24849  24850  ..  27194  27195  27196  27197  27198  27199
Auteur Sujet :

[blabla@olympe] Le topic du modo, dieu de la fibre et du monde

n°2421501
SekYo
Posté le 08-07-2022 à 11:50:12  profilanswer
 

Reprise du message précédent :

Shinuza a écrit :


Point Quote.


Ce running gag date d'il y a combien de temps ? 10 ans maintenant non ? Ce topic de vieux :o

mood
Publicité
Posté le 08-07-2022 à 11:50:12  profilanswer
 

n°2421502
koskoz
They see me trollin they hatin
Posté le 08-07-2022 à 11:54:14  profilanswer
 

el_barbone a écrit :


 
J'avais pas bien compris que t'avais bien compris :o


 
Du coup maintenant est-ce que t'as compris que j'ai compris ? :o


---------------
Twitter
n°2421503
Dion
Acceuil
Posté le 08-07-2022 à 12:00:55  profilanswer
 

Vas y koskoz, fais toi respecter un peu :o


---------------
It is not called show art
n°2421504
koskoz
They see me trollin they hatin
Posté le 08-07-2022 à 12:14:33  profilanswer
 

:D


---------------
Twitter
n°2421505
koskoz
They see me trollin they hatin
Posté le 08-07-2022 à 12:17:25  profilanswer
 

Est-ce que vous connaissez des formations de reconversion dans le dev web ?

 

Un ami avec un diplom d'ingénieur chimiste aimerait se reconvertir. Il habite Saint-Étienne.

 

J'ai pas trop idée si ça peut se faire 100% en ligne ou non.


---------------
Twitter
n°2421506
DDT
Few understand
Posté le 08-07-2022 à 12:19:59  profilanswer
 

Pourquoi pas se tourner plutôt vers une formation en data science? Y a plein de boulots avec du Python et du R en chimie, bio, pharma, etc.

Message cité 1 fois
Message édité par DDT le 08-07-2022 à 12:20:09

---------------
click clack clunka thunk
n°2421507
ratibus
Posté le 08-07-2022 à 12:34:26  profilanswer
 

nraynaud a écrit :

A propos, le déballeur de Mac vient d’être ré-embauché par sa victime, je pense que ces malfaisants ont une emprise psychologique!


C'était la boîte avec les éoliennes ou la carto ?

n°2421508
nraynaud
lol
Posté le 08-07-2022 à 12:36:33  profilanswer
 

ratibus a écrit :


C'était la boîte avec les éoliennes ou la carto ?


carto


---------------
trainoo.com, c'est fini
n°2421509
nraynaud
lol
Posté le 08-07-2022 à 12:51:16  profilanswer
 

dites, j'ai un programme julia qui appelle du C.
J'ai l'impression qu'il devient de plus en plus lent au fil du run, je soupçonne qu'il fait une tonne de mallocs et qu'ils sont pas libérés.
 
comment je peux mettre ça en évidence ?


---------------
trainoo.com, c'est fini
n°2421510
gatsu35
Blablaté par Harko
Posté le 08-07-2022 à 13:01:09  profilanswer
 

analysé la gueule de la conso mémoire ?


---------------
Blablaté par Harko
mood
Publicité
Posté le 08-07-2022 à 13:01:09  profilanswer
 

n°2421511
Dion
Acceuil
Posté le 08-07-2022 à 13:08:26  profilanswer
 

Le problème c'est que les réponses semblent évidentes alors qu'on sait tous qu'il n'a arrêté le diagnostic que quand un papier de recherche de 2021 fait par 5 post doc n'allait pas assez loin sur le sujet ou a fait une mauvaise interprétation d'une sous règle de POSIX


---------------
It is not called show art
n°2421512
nraynaud
lol
Posté le 08-07-2022 à 13:08:27  profilanswer
 

gatsu35 a écrit :

analysé la gueule de la conso mémoire ?


vaguement, mais j'aimerai afficher une courbe qui monte pour ce process, y'a quoi comme outil pour ça sur le mac?


---------------
trainoo.com, c'est fini
n°2421513
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 13:20:30  profilanswer
 

nraynaud a écrit :


vaguement, mais j'aimerai afficher une courbe qui monte pour ce process, y'a quoi comme outil pour ça sur le mac?


Je pense que Instruments a des probes pour faire ca en natif.
 
Tu peux aussi le faire via dtrace qui va être plus flexible en mettant les bonnes probes, mais tu peux être limité par SIP (sauf à en faire une désactivation partielle). Je sais plus trop quelles sont les limitations de SIP par contre, IIRC c’est juste que tu peux pas tracer les binaires “système” (/bin, /System, …) auquel cas c’est pas un problème pour ton utilitaire à toi, mais je sais plus si ça touche aussi les libs.
 
Edit: sinon regarde si Julia a pas un système de tracing à lui? Python en a progressivement ajouté un, donc tu peux avoir des évènements qui sont à un niveau plus haut et moins brut que l’interface avec la libc.


Message édité par masklinn le 08-07-2022 à 13:21:38

---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421514
koskoz
They see me trollin they hatin
Posté le 08-07-2022 à 13:35:59  profilanswer
 

DDT a écrit :

Pourquoi pas se tourner plutôt vers une formation en data science? Y a plein de boulots avec du Python et du R en chimie, bio, pharma, etc.

 

Intéressant comme piste :jap:


---------------
Twitter
n°2421515
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 13:53:32  profilanswer
 

TIL: il y a des gens qui utilisent %i avec printf.


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421516
Kenshineuh
Posté le 08-07-2022 à 13:56:57  profilanswer
 

Dites, vous avez des idées de comment paginer le problème suivant :

 

On utilise leveldb en prod (avec la lib levelup qui nous permet de manipuler plus facilement les data) donc pour recup une liste d'utilisateurs par exemple: on fait des db.createReadStream() qu'on borne selon le token des utilisateurs.
Sauf qu'on commence à avoir des paquets d'objets à stream. Certaines pages admin mettent beaucoup de temps à répondre (30 secondes pour les plus lourdes ~1millions d'entrée). Certains n'ont pas la fibre donc en plus de stream toute la bdd, je dois gérer les payloads.
L'idée est donc d'ajouter une pagination.

 

Je voyais ça comme ceci :
On stream la base, on recup les éléments qu'on veut renvoyer, imaginons les 20 premiers éléments qu'on stock dans une variable, on fait un stream.destroy() pour casser le stream et on renvoie les 20 éléments. Si jamais on veut la page 2, on skip les 20 premiers etc.

 

Ca marche MAIS :
- Je n'ai plus le nombre total d'éléments. Ce qui m'oblige à avoir une autre méthode pour recup juste le nombre d'éléments. Ou alors je ne destroy pas le stream et renvoie un count avec ma réponse. Ca corrige le problème du count, mais le fait de parser toute la base rallonge un peu le temps évidemment.
- Si je veux ajouter des critères de recherches, je suis quand même obligé de parser toute la bdd et ensuite appliquer mes filtres.

 

En gros, à part améliorer la taille de l'objet que je renvoie (ce qui est déjà pas mal), j'ai pas de solution miracle.

 

Si vous avez de meilleur idées, je maitrise pas à fond les streams. Pour info, on est en bloqué en node 8 pour le moment. :o

Message cité 1 fois
Message édité par Kenshineuh le 08-07-2022 à 13:58:32
n°2421517
Dion
Acceuil
Posté le 08-07-2022 à 13:58:04  profilanswer
 

masklinn a écrit :

TIL: il y a des gens qui utilisent %i avec printf.


 [:sushi]


---------------
It is not called show art
n°2421518
Ydalb
In Crêpes n' Cidre I Trust!
Posté le 08-07-2022 à 13:58:06  profilanswer
 

Dites, s’il y a des dev front / React ici, à combien on peut prétendre en province comme premier salaire / junior ? Niveau bac+3.
 
Je pensais a 35k, ça vous semble déconnant ?


---------------
:o
n°2421519
Kenshineuh
Posté le 08-07-2022 à 14:00:38  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par Kenshineuh le 08-07-2022 à 14:01:51
n°2421520
flo850
moi je
Posté le 08-07-2022 à 14:02:06  profilanswer
 

le parcours pour avoir le nombre total doit etre assez rapide ,  donc je ne me ferai pas chier dans un premier temps : parcours de la collection complète, mais retourne uniquemnt la page courante + les metadatas ( offset, size, ... )  
 
Si les données ne bougent pas trop ( ou que tu peux savoir quand elles sont modifiées et invalider le cache) , tu peux aussi mettre le nombre en cache et ne faire que le parcours de 20 records depuis le dernier reçu


---------------

n°2421521
Kenshineuh
Posté le 08-07-2022 à 14:05:20  profilanswer
 

flo850 a écrit :

le parcours pour avoir le nombre total doit etre assez rapide ,  donc je ne me ferai pas chier dans un premier temps : parcours de la collection complète, mais retourne uniquemnt la page courante + les metadatas ( offset, size, ... )

 

Si les données ne bougent pas trop ( ou que tu peux savoir quand elles sont modifiées et invalider le cache) , tu peux aussi mettre le nombre en cache et ne faire que le parcours de 20 records depuis le dernier reçu

 


9 secondes quand même le parcours, en local. Après j'ai d'autres optis pour réduire un peu ce parcours. Au mieux j'ai ~3/4 secondes pour le million de ligne.

Message cité 1 fois
Message édité par Kenshineuh le 08-07-2022 à 14:07:28
n°2421522
ixemul
Nan mais sans blague ! ⚡
Posté le 08-07-2022 à 14:05:57  profilanswer
 

masklinn a écrit :

TIL: il y a des gens qui utilisent %i avec printf.


 
Ca fait bien 20 ans que j'ai pas vu ça  [:mlc2]


---------------
VA APPRENDRE ET REVIENS QUAND TU SAIS, SINON ABSTIENT TOI C'EST UN GRAND CONSEIL QUE JE TE DONNE... TU ES INCOMPÉTENT ET C'EST UNE RÉALITÉ, TU N'AS RIEN A FAIRE ICI FAUT S'Y CONNAITRE ... -Jojo1998 - RIP - http://tinyurl.com/qc47ftk
n°2421523
R3g
fonctionnaire certifié ITIL
Posté le 08-07-2022 à 14:13:35  profilanswer
 

masklinn a écrit :

TIL: il y a des gens qui utilisent %i avec printf.


Et c'est mal ? J'ai un vague souvenir que %i et %d sont équivalents


---------------
Au royaume des sourds, les borgnes sont sourds.
n°2421524
flo850
moi je
Posté le 08-07-2022 à 14:24:24  profilanswer
 

Kenshineuh a écrit :


 
 
9 secondes quand même le parcours, en local. Après j'ai d'autres optis pour réduire un peu ce parcours. Au mieux j'ai ~3/4 secondes pour le million de ligne.


 
ça divise déjà le temps de chargement par 10 au mini : o
sinon, il y a de vrais bases de données qui font ça pour toi
 
côté front tu peux aussi récupérer un volume intermédiare ( genre 5 pages , quelques centaines de lignes )


---------------

n°2421525
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 14:26:52  profilanswer
 

Kenshineuh a écrit :

Dites, vous avez des idées de comment paginer le problème suivant :  
 
On utilise leveldb en prod (avec la lib levelup qui nous permet de manipuler plus facilement les data) donc pour recup une liste d'utilisateurs par exemple: on fait des db.createReadStream() qu'on borne selon le token des utilisateurs.  
Sauf qu'on commence à avoir des paquets d'objets à stream. Certaines pages admin mettent beaucoup de temps à répondre (30 secondes pour les plus lourdes ~1millions d'entrée). Certains n'ont pas la fibre donc en plus de stream toute la bdd, je dois gérer les payloads.
L'idée est donc d'ajouter une pagination.
 
Je voyais ça comme ceci :
On stream la base, on recup les éléments qu'on veut renvoyer, imaginons les 20 premiers éléments qu'on stock dans une variable, on fait un stream.destroy() pour casser le stream et on renvoie les 20 éléments. Si jamais on veut la page 2, on skip les 20 premiers etc.  
 
Ca marche MAIS :
- Je n'ai plus le nombre total d'éléments. Ce qui m'oblige à avoir une autre méthode pour recup juste le nombre d'éléments. Ou alors je ne destroy pas le stream et renvoie un count avec ma réponse. Ca corrige le problème du count, mais le fait de parser toute la base rallonge un peu le temps évidemment.
- Si je veux ajouter des critères de recherches, je suis quand même obligé de parser toute la bdd et ensuite appliquer mes filtres.
 
En gros, à part améliorer la taille de l'objet que je renvoie (ce qui est déjà pas mal), j'ai pas de solution miracle.  
 
Si vous avez de meilleur idées, je maitrise pas à fond les streams. Pour info, on est en bloqué en node 8 pour le moment. :o


Passer à une DB relationnelle?
 
Ou bien implémenter vos métadonnée à côté, genre des compteurs, indexes, …?
 
Et skip/limit ça me semble encore moins adapté pour un KVs que pour une DB classique, faut vraiment faire de l’itération par curseur (donc quand tu demandes une page, tu donnes le dernier objet de la page précédente, comme ça la DB peut redémarrer de cet objet, ça va pas se voir pour la 5e page, mais pour la 2500e si)

R3g a écrit :


Et c'est mal ? J'ai un vague souvenir que %i et %d sont équivalents


Bah c’est juste bizarre / confus, personne utilise %i avec printf donc t’arrives dedans et il te faut 30s pour te souvenir de ce que ça fait :D
 
En plus ça fait probablement pas ce que tu veux quand tu l’utilises avec sprintf (ça va parser les 0x/0o en entrée et pas juste le décimal).


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421526
Kenshineuh
Posté le 08-07-2022 à 14:28:18  profilanswer
 

flo850 a écrit :


 
ça divise déjà le temps de chargement par 10 au mini : o
sinon, il y a de vrais bases de données qui font ça pour toi
 
côté front tu peux aussi récupérer un volume intermédiare ( genre 5 pages , quelques centaines de lignes )


 
Oui c'est une décision dont on devra discuter. Car 30 secondes de load mais tu as toutes tes datas donc les filtres coté front etc. c'est rapide.
Si on passe sur de la pagination, c'est 3/4 secondes à chaque requêtes/filtres car on placera les filtres côtés serveur évidemment. On demandera aux admins s'ils font plus de 10 recherches par jour. :o

n°2421527
SekYo
Posté le 08-07-2022 à 14:31:07  profilanswer
 

koskoz a écrit :

Est-ce que vous connaissez des formations de reconversion dans le dev web ?


J'ai un ancien collègue qui était passé par Le Wagon, il en était plutôt content (et le résultat était plutôt OK).
Par contre il le disait lui même, ça fait pas de toi un dev en 3 mois; faut être bien motivé, parce que sans travail perso à coté, c'est trop juste (lui était déjà pas mal autodidacte en dev, il a principalement fait la formation pour avoir "le papier" ce qui lui a permis de décrocher ses premiers entretiens assez facilement)

n°2421528
Kenshineuh
Posté le 08-07-2022 à 14:32:23  profilanswer
 

masklinn a écrit :


Passer à une DB relationnelle?
 
Ou bien implémenter vos métadonnée à côté, genre des compteurs, indexes, …?
 
Et skip/limit ça me semble encore moins adapté pour un KVs que pour une DB classique, faut vraiment faire de l’itération par curseur (donc quand tu demandes une page, tu donnes le dernier objet de la page précédente, comme ça la DB peut redémarrer de cet objet, ça va pas se voir pour la 5e page, mais pour la 2500e si)


 
C'est en discutions pour c'est pas envisageable pour le moment.
 
Le problème c'est que tu dois refresh des metadonnées à chaque ajouts/delete d'objets. Ca implique beaucoup de modif de code dans notre bdd.
 
J'ai pas compris ta dernière phrase. leveldb parcourt, toute la base. Je peux pas lui dire de démarrer à un certain points car nos key sont de la forme "user_blablablabla" donc on borne sur "user_".

n°2421529
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 14:32:31  profilanswer
 

Kenshineuh a écrit :

Oui c'est une décision dont on devra discuter. Car 30 secondes de load mais tu as toutes tes datas donc les filtres coté front etc. c'est rapide.
Si on passe sur de la pagination, c'est 3/4 secondes à chaque requêtes/filtres car on placera les filtres côtés serveur évidemment. On demandera aux admins s'ils font plus de 10 recherches par jour. :o


Sinon t’as essayé de compresser ton stream? Plus de compression => moins de données => plus de vitesse [:jar jar]


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421530
Kenshineuh
Posté le 08-07-2022 à 14:35:47  profilanswer
 

masklinn a écrit :


Sinon t’as essayé de compresser ton stream? Plus de compression => moins de données => plus de vitesse [:jar jar]


 
C'est une piste. Même si on renvoie pas le stream directement. On stream la base, et on recup un objet user par exemple qu'on renvoie. Quand je parlais de payload, c'est que nos objets user contiennent BEAUCOUP de data. On a implémenté un parser graphql pour justement recup seulement les props qu'on veut dans un objet. Ce qui allège l'objet user, et donc le payload.

n°2421531
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 14:38:06  profilanswer
 

Kenshineuh a écrit :

C'est en discutions pour c'est pas envisageable pour le moment.
 
Le problème c'est que tu dois refresh des metadonnées à chaque ajouts/delete d'objets. Ca implique beaucoup de modif de code dans notre bdd.


Serait probablement une bonne chose d’avoir une couche frontale unifiée pour pas taper directement dedans comme des sauvages non?
 

Kenshineuh a écrit :

J'ai pas compris ta dernière phrase. leveldb parcourt, toute la base. Je peux pas lui dire de démarrer à un certain points car nos key sont de la forme "user_blablablabla" donc on borne sur "user_".


La doc de levelup liste des options gt/lt sur createReadStream, et de ce que j’ai compris d’une recherche rapide sur leveldb c’est une structure en arbre trié sur la clé (comme on pourrait s’y attendre), donc logiquement démarrer une itération à une clé donnée c’est O(log(n)), tu trouves la clé puis tu continues à traverser normalement.
 
Si par “bornes” tu veux dire que vous utilisez `gt=user_` pour filtrer sur les utilisateurs, bah sur la première page tu fais ça, puis disons que le dernier utilisateur c’est `user_jeanpaul` being pour la page suivant tu mets `gt=user_jeanpaul`, comme ça tu démarres de là au lieu de devoir retraverser toute la première page dont t’as plus rien à foutre.


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421532
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 14:39:21  profilanswer
 

Kenshineuh a écrit :

C'est une piste. Même si on renvoie pas le stream directement. On stream la base, et on recup un objet user par exemple qu'on renvoie. Quand je parlais de payload, c'est que nos objets user contiennent BEAUCOUP de data. On a implémenté un parser graphql pour justement recup seulement les props qu'on veut dans un objet. Ce qui allège l'objet user, et donc le payload.


Mais sauf si les objets font 15k, tu peux juste gzipper et tu vas probablement avoir chiée de redondance dans tes collections quand tu renvoies des listes d’objets.

Message cité 1 fois
Message édité par masklinn le 08-07-2022 à 14:44:19

---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421533
Kenshineuh
Posté le 08-07-2022 à 14:55:17  profilanswer
 

masklinn a écrit :


Serait probablement une bonne chose d’avoir une couche frontale unifiée pour pas taper directement dedans comme des sauvages non?

 


La doc de levelup liste des options gt/lt sur createReadStream, et de ce que j’ai compris d’une recherche rapide sur leveldb c’est une structure en arbre trié sur la clé (comme on pourrait s’y attendre), donc logiquement démarrer une itération à une clé donnée c’est O(log(n)), tu trouves la clé puis tu continues à traverser normalement.

 

Si par “bornes” tu veux dire que vous utilisez `gt=user_` pour filtrer sur les utilisateurs, bah sur la première page tu fais ça, puis disons que le dernier utilisateur c’est `user_jeanpaul` being pour la page suivant tu mets `gt=user_jeanpaul`, comme ça tu démarres de là au lieu de devoir retraverser toute la première page dont t’as plus rien à foutre.

 

Oui je peux borner comme ça mais du coup ça me solutionne pas facilement le fait d'avoir le count total (qui se recup facilement si tu parcours tous les objets). :D

 

Bref, je vais voir. Merci. :jap:

 
masklinn a écrit :


Mais sauf si les objets font 15k, tu peux juste gzipper et tu vas probablement avoir chiée de redondance dans tes collections quand tu renvoies des listes d’objets.

 

Recup tous les utilisateurs c'est environ 140 MB actuellement et c'est pas le pire. D'où ma recherche de solution. Soit on pagine, soit on allège les objets, soit on gzip, soit on fait les trois. :D

Message cité 1 fois
Message édité par Kenshineuh le 08-07-2022 à 14:56:04
n°2421534
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 15:11:15  profilanswer
 

Kenshineuh a écrit :

Oui je peux borner comme ça mais du coup ça me solutionne pas facilement le fait d'avoir le count total (qui se recup facilement si tu parcours tous les objets). :D


Oui non c’est pas une suggestion pour le comptage, c’est pour la pagination :)
 

Kenshineuh a écrit :

Recup tous les utilisateurs c'est environ 140 MB actuellement et c'est pas le pire. D'où ma recherche de solution. Soit on pagine, soit on allège les objets, soit on gzip, soit on fait les trois. :D


Faut clairement les 3.


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421535
Dion
Acceuil
Posté le 08-07-2022 à 15:15:49  profilanswer
 

masklinn a écrit :


Faut clairement les 3.


Comment tu vends l'upgrade vers la prochaine version majeure si tu règles le problème entièrement d'un seul coup ?  :heink:  
C'est un coup à se retrouver avec un stock de cd-rom sur les bras... :/


---------------
It is not called show art
n°2421536
gfive
Posté le 08-07-2022 à 15:15:52  profilanswer
 

masklinn a écrit :


Faut clairement les 3.

 

Sans blockchain c'est pas sûr que ça suffise.

 

Message cité 2 fois
Message édité par gfive le 08-07-2022 à 15:15:59

---------------
Tous les sud africains sont ségrégationistes, à part Ted. (P. Desproges)
n°2421537
masklinn
í dag viðrar vel til loftárása
Posté le 08-07-2022 à 15:20:22  profilanswer
 

gfive a écrit :

Sans blockchain c'est pas sûr que ça suffise.


 
La blockchain c’est l’inverse, c’est pour que ça aille moins vite.


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2421538
Kenshineuh
Posté le 08-07-2022 à 15:21:49  profilanswer
 

masklinn a écrit :


Faut clairement les 3.


 
Dans un monde idéal oui. Là c'est pour deux admins qui vont DE TEMPS EN TEMPS voir ces pages. C'est pas qu'on veut pas les aider mais disons qu'on cherche le meilleur moyen qui implique peu de modif de code. :D

n°2421539
gfive
Posté le 08-07-2022 à 15:37:56  profilanswer
 

Kenshineuh a écrit :


 
Dans un monde idéal oui. Là c'est pour deux admins qui vont DE TEMPS EN TEMPS voir ces pages. C'est pas qu'on veut pas les aider mais disons qu'on cherche le meilleur moyen qui implique peu de modif de code. :D


 
Et tu peux pas leur faire un rapport journalier?


---------------
Tous les sud africains sont ségrégationistes, à part Ted. (P. Desproges)
n°2421540
Kenshineuh
Posté le 08-07-2022 à 15:39:42  profilanswer
 

gfive a écrit :


 
Et tu peux pas leur faire un rapport journalier?


 
Non. C'est une page admin qui affiche tous les élements dont on a besoin pour ensuite ajouter des filtres etc.

n°2421541
ratibus
Posté le 08-07-2022 à 15:49:59  profilanswer
 

flo850 a écrit :


 
ça divise déjà le temps de chargement par 10 au mini : o
sinon, il y a de vrais bases de données qui font ça pour toi
 
côté front tu peux aussi récupérer un volume intermédiare ( genre 5 pages , quelques centaines de lignes )


 

Kenshineuh a écrit :


 
Oui c'est une décision dont on devra discuter. Car 30 secondes de load mais tu as toutes tes datas donc les filtres coté front etc. c'est rapide.
Si on passe sur de la pagination, c'est 3/4 secondes à chaque requêtes/filtres car on placera les filtres côtés serveur évidemment. On demandera aux admins s'ils font plus de 10 recherches par jour. :o


Faudrait avoir un archi chez vous, car ça me semble bancal de tout gérer côté front (wtf) :D
Tu dis que les filtres côté front c'est rapide mais à mon avis ça irait + vite même avec un appel réseau (et vu les 30 secondes de ton loading initial actuel, t'as largement de quoi amortir le délai total d'un scénario d'utilisation classique).
Je vois pas pourquoi ça prendrait 3/4 secondes avec du filtrage côté serveur.
Et pour voir ce que vos admins font, vous n'avez pas de métriques d'utilisation de vos applis ?
 
Plam : c'est quoi ce bordel ? :o

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  24848  24849  24850  ..  27194  27195  27196  27197  27198  27199

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)