Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3405 connectés 

 

Sujet(s) à lire :
    - Who's who@Programmation
 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  23045  23046  23047  ..  27198  27199  27200  27201  27202  27203
Auteur Sujet :

[blabla@olympe] Le topic du modo, dieu de la fibre et du monde

n°2341507
skeye
Posté le 15-11-2019 à 11:02:22  profilanswer
 

Reprise du message précédent :

ratibus a écrit :

Ça râle sur du json en base mais ça fait des LIKE SQL dégueux :o


 

gfive a écrit :


 
ouais, alors ça si tu as pas construit un index fonctionnel, c'est pas terrible terrible.
 
Et construire un index fonctionnel, ça revient à peu près exactement à la proposition de la colonne "normalisée" dédiée, sauf que tu n'a pas accès aux valeurs :o


 
Pour des trucs basiques, j'ai dit...:o


---------------
Can't buy what I want because it's free -
mood
Publicité
Posté le 15-11-2019 à 11:02:22  profilanswer
 

n°2341510
BenO
Profil: Chercheur
Posté le 15-11-2019 à 11:35:20  profilanswer
 

Dernier jour au boulot [:cerveau perchut2]


---------------
Python Python Python
n°2341511
nraynaud
lol
Posté le 15-11-2019 à 11:36:41  profilanswer
 

et après ?


---------------
trainoo.com, c'est fini
n°2341512
BenO
Profil: Chercheur
Posté le 15-11-2019 à 11:39:42  profilanswer
 

Je reprends début Janvier [:cerveau delight]


---------------
Python Python Python
n°2341513
Blackyell
$question = $to_be || !$to_be;
Posté le 15-11-2019 à 11:45:04  profilanswer
 

Ydalb a écrit :


 
De mémoire, ça marche plutôt pas mal. J'avais juste dû refaire un xcode-select --install. Je n'avais pas de machine Docker par contre à l'époque.


 

nraynaud a écrit :


je crois que c'est presque parfait. ça transfère le répertoire /home aussi.


 
Merci [:bien]

n°2341515
gatsu35
Blablaté par Harko
Posté le 15-11-2019 à 12:21:37  profilanswer
 

Blackyell a écrit :

Quelqu'un a déjà fait un transfert d'un Mac à un autre avec l'outil de migration ?
 
On se retrouve vraiment avec une copie conforme ? (genre tout ce qui est installé via Homebrew, mes machines et config Docker, tous les réglages de mes différentes apps etc.)
 
Ou est-ce qu'il y a quand même des choses à toucher ?


Je ne transfère plus, la plupart des softs que j'utilsie je les utilise dans leur conf à eux, et installer un mac me prends 1h chrono, après j'installe les softs avec homebrew ou à la main quand je peux pas (cas rare).
Le seul soft pour lequel je garde la conf c'est Google chrome via mon compte google (rien à foutre si google sait tout, mais au moins j'ai mes extensions et leurs paramètres), et VS Code

n°2341516
___alt
Posté le 15-11-2019 à 12:23:00  profilanswer
 

Qui est obligé de foutre une glibc tierce sur son image docker Alpine parce que mongodb tourne pas sinon ? C'est bibi.


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2341517
DDT
Few understand
Posté le 15-11-2019 à 12:30:13  profilanswer
 

Quel est l'intérêt de conserver ton image de base Alpine dans ce cas?


---------------
click clack clunka thunk
n°2341519
Kenshineuh
Posté le 15-11-2019 à 13:04:07  profilanswer
 

gatsu35 a écrit :


Je ne transfère plus, la plupart des softs que j'utilsie je les utilise dans leur conf à eux, et installer un mac me prends 1h chrono, après j'installe les softs avec homebrew ou à la main quand je peux pas (cas rare).
Le seul soft pour lequel je garde la conf c'est Google chrome via mon compte google (rien à foutre si google sait tout, mais au moins j'ai mes extensions et leurs paramètres), et VS Code


 
Vscode a un plugin pour save toute ta conf si jamais.

n°2341521
Blackyell
$question = $to_be || !$to_be;
Posté le 15-11-2019 à 13:21:01  profilanswer
 

gatsu35 a écrit :


Je ne transfère plus, la plupart des softs que j'utilsie je les utilise dans leur conf à eux, et installer un mac me prends 1h chrono, après j'installe les softs avec homebrew ou à la main quand je peux pas (cas rare).
Le seul soft pour lequel je garde la conf c'est Google chrome via mon compte google (rien à foutre si google sait tout, mais au moins j'ai mes extensions et leurs paramètres), et VS Code


 
Dans l'absolu, j'ai déjà la liste des 29 programmes que j'utilise, dont 28 sont installable très rapidement via Homebrew.
 
Pour les config, celles de iTerm2 et Alfred sont stockées sur le cloud. Celle de Chrome est stockée via compte Google.
 
J'ai mis environ 1h30 a tout réinstaller sur le nouveau Mac, je n'avais pas envie de tenter le transfert depuis l'ancien car je voulais un truc tout propre.
 
Par contre l'install & lancement de ma stack Docker prend presque 2h la première fois.
 
Et comme Apple vient de sortir le 16", que je l'ai un peu en travers, et que je suis encore dans le délai pour me rétracter... Je vais prendre le 16" et renvoyer le 15"... Mais comme je viens de me faire chier à tout réinstaller... je suis pas très chaud pour recommencer :whistle:

mood
Publicité
Posté le 15-11-2019 à 13:21:01  profilanswer
 

n°2341522
Jubijub
Parce que je le VD bien
Posté le 15-11-2019 à 13:22:59  profilanswer
 

Des news de mon amende espagnole :
 
Alors c'est bon, c'est reçu un recommendé, avec des codes pour aller sur un site des années 90 (limite y'avait un gif "en construction" ), qui permet de payer par CB (ou sinon un bon vieil IBAN des familles).
 
Bilan : 50€ si je renonce au recours et tout est fini, ou 100€ si j'avais envie de contester. Je vais pas contester (en plus y'a la photo fournie avec, c'était bien ma voiture :) )
 
 [:oovaveoo:4]


---------------
Jubi Photos : Flickr - 500px
n°2341524
___alt
Posté le 15-11-2019 à 13:36:38  profilanswer
 

DDT a écrit :

Quel est l'intérêt de conserver ton image de base Alpine dans ce cas?


 
J'ai tenté avec une Ubuntu, même s'ils ont réduit la taille du bordel je m'en tire avec 1.33Go pour tout ce dont j'ai besoin.
Je suis en dessous de 500Mo avec une Alpine.


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2341525
DDT
Few understand
Posté le 15-11-2019 à 13:48:12  profilanswer
 

Les images Mongo officielles à base d'Ubuntu font <150Mo, je sais pas comment tu te débrouilles mais ça me semble monstrueux.

Message cité 1 fois
Message édité par DDT le 15-11-2019 à 13:50:39

---------------
click clack clunka thunk
n°2341526
el muchach​o
Comfortably Numb
Posté le 15-11-2019 à 14:01:38  profilanswer
 

BenO a écrit :

Je reprends début Janvier [:cerveau delight]


Où as-tu prévu tes vacances ?[:uxam]


---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
n°2341527
BenO
Profil: Chercheur
Posté le 15-11-2019 à 14:07:00  profilanswer
 

el muchacho a écrit :


Où as-tu prévu tes vacances ?[:uxam]


 
Chez moi [:cerveau eonwe]
Période d'adaptation à la creche pour le second.
Je vais surtout en profiter pour ranger l'appart et avancer qqs projets open source / robotique  [:cerveau ouch]  


---------------
Python Python Python
n°2341528
SekYo
Posté le 15-11-2019 à 14:13:23  profilanswer
 

BenO a écrit :


Période d'adaptation à la creche pour le second.


Le second ? Woot, j'étais resté au premier moi, faut vraiment qu'on boive un verre à l'occasion :D

n°2341529
nraynaud
lol
Posté le 15-11-2019 à 14:14:42  profilanswer
 

SekYo a écrit :


Le second ? Woot, j'étais resté au premier moi, faut vraiment qu'on boive un verre à l'occasion :D


hum, je crois que tu peux oublier...


---------------
trainoo.com, c'est fini
n°2341530
BenO
Profil: Chercheur
Posté le 15-11-2019 à 14:17:46  profilanswer
 

Ma porte est ouverte !
Sinon le 'soir' à 16h30 ? [:cerveau o]


---------------
Python Python Python
n°2341535
masklinn
í dag viðrar vel til loftárása
Posté le 15-11-2019 à 15:15:07  profilanswer
 

Blackyell a écrit :


Et comme Apple vient de sortir le 16", que je l'ai un peu en travers, et que je suis encore dans le délai pour me rétracter... Je vais prendre le 16" et renvoyer le 15"... Mais comme je viens de me faire chier à tout réinstaller... je suis pas très chaud pour recommencer :whistle:


Si ça t’a pris que 1h30 pour tout remettre à plomb ce serait vraiment dommage de rester sur les 15” et butterfly.  
 
Ta stack docker tu peux te demerder pour faire le premier lancement en downtime genre avant de te barrer ou  chez toi.  


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2341538
Hermes le ​Messager
Breton Quiétiste
Posté le 15-11-2019 à 15:22:03  profilanswer
 

masklinn a écrit :


Si ça t’a pris que 1h30 pour tout remettre à plomb ce serait vraiment dommage de rester sur les 15” et butterfly.  
 
Ta stack docker tu peux te demerder pour faire le premier lancement en downtime genre avant de te barrer ou  chez toi.  


 
non mais clairement. Entre le 15 et le 16, c'est quoi l'hésitation ??? Seriously ??


---------------
Expert en expertises
n°2341540
Anonymouse
Posté le 15-11-2019 à 15:50:42  profilanswer
 

Hello,
 
Ca vous parle une lib pour générer une BDD en RAM clef valeur à partir de données  
statiques en visant une faible empreinte mémoire et de bon temps d'accès?
 
1. Vous en connaissez ?
2. Ca vous parait utile ?

Message cité 3 fois
Message édité par Anonymouse le 15-11-2019 à 15:56:00
n°2341541
DDT
Few understand
Posté le 15-11-2019 à 16:01:38  profilanswer
 

Donc ... une HashMap dans ta bibliothèque standard? [:gratgrat]  
Ou tu veux un truc comme LevelDB / RocksDB?


---------------
click clack clunka thunk
n°2341542
Blackyell
$question = $to_be || !$to_be;
Posté le 15-11-2019 à 16:05:24  profilanswer
 

masklinn a écrit :


Si ça t’a pris que 1h30 pour tout remettre à plomb ce serait vraiment dommage de rester sur les 15” et butterfly.  
 
Ta stack docker tu peux te demerder pour faire le premier lancement en downtime genre avant de te barrer ou  chez toi.  


 

Hermes le Messager a écrit :


 
non mais clairement. Entre le 15 et le 16, c'est quoi l'hésitation ??? Seriously ??


 
Ah non mais la demande retour du 15" chez Amazon est déjà enregistrée hein, j'ai pas hésite :D
 
Je verrai déjà comment se passe le transfert, peut-être que tout Docker fera parti du lot et que ça fonctionnera OOTB.
 
Et quand je parle de "premier lancement", c'est pas juste "une commande et zou, attendre 2h".
 
Ça installe whatmille micro-services, en posant des questions... et une fois les services installés y'a des modifs à faire sur certains fichiers, puis lancer plusieurs commandes... avec le tout qui marche une fois sur 3... bref, cette stack est moisie mais bon, pas le choix.
 
Donc si je pouvais juste faire un copier/coller que ça marche, je serai content :whistle:

n°2341545
___alt
Posté le 15-11-2019 à 16:10:02  profilanswer
 

DDT a écrit :

Les images Mongo officielles à base d'Ubuntu font <150Mo, je sais pas comment tu te débrouilles mais ça me semble monstrueux.


 
J'utilise pas une image mongo. Notre build java utilise un plugin embedded-mongo pour exécuter des tests, mon seul prérequis est de fournir une image docker sur laquelle embedded-mongo peut s'exécuter.
J'avais besoin en gros d'une image qui contient : docker, jdk8, maven, git, bash, curl, ansible, ce sont les outils qui nous permettent de builder l'application et de la déployer.
 
J'ai installé ça avec apt, en gros Java contribue pour 350Mo, Docker pour 386Mo, le reste des outils pour environ 300Mo. Pas génial.
A partir d'une image Ubuntu qui devrait être light d'ailleurs.
 
Même chose en Alpine sauf que je pars d'une image de base docker + git (docker:19-git), j'arrive à 500Mo tout mouillé :o
 
Pas compris où ça avait merdé.
 
Au passage j'ai découvert https://www.fromlatest.io/ et c'est pas mal.


---------------
TRIPS RIGHT BUNCH F SHUTTLE TOM AND JERRY RIGHT YELLOW
n°2341547
nraynaud
lol
Posté le 15-11-2019 à 16:17:50  profilanswer
 

Anonymouse a écrit :

Hello,
 
Ca vous parle une lib pour générer une BDD en RAM clef valeur à partir de données  
statiques en visant une faible empreinte mémoire et de bon temps d'accès?
 
1. Vous en connaissez ?
2. Ca vous parait utile ?


je vois pas de use case. Genre t'as un gros tas de données, il change jamais et la BDD sert juste à faire des query pas trop lentes dessus ? elle servirait que pour ses indexes ?
 


---------------
trainoo.com, c'est fini
n°2341548
Hermes le ​Messager
Breton Quiétiste
Posté le 15-11-2019 à 16:22:23  profilanswer
 

putain la bande annonce d'Age of Empire 4  [:benou_miam]


---------------
Expert en expertises
n°2341549
Hermes le ​Messager
Breton Quiétiste
Posté le 15-11-2019 à 16:27:15  profilanswer
 

Anonymouse a écrit :

Hello,
 
Ca vous parle une lib pour générer une BDD en RAM clef valeur à partir de données  
statiques en visant une faible empreinte mémoire et de bon temps d'accès?
 
1. Vous en connaissez ?
2. Ca vous parait utile ?


 
Ta question n'est pas claire. Tu cherches un petit truc pour un truc limité ? Ou une vrai in-memory database ? Utiliser du in-memory implique certaines choses. Tu as bcp de solutions différentes: https://en.wikipedia.org/wiki/List_ [...] _databases


---------------
Expert en expertises
n°2341550
masklinn
í dag viðrar vel til loftárása
Posté le 15-11-2019 à 16:28:00  profilanswer
 

Blackyell a écrit :


 
Ah non mais la demande retour du 15" chez Amazon est déjà enregistrée hein, j'ai pas hésite :D
 
Je verrai déjà comment se passe le transfert, peut-être que tout Docker fera parti du lot et que ça fonctionnera OOTB.
 
Et quand je parle de "premier lancement", c'est pas juste "une commande et zou, attendre 2h".
 
Ça installe whatmille micro-services, en posant des questions... et une fois les services installés y'a des modifs à faire sur certains fichiers, puis lancer plusieurs commandes... avec le tout qui marche une fois sur 3... bref, cette stack est moisie mais bon, pas le choix.
 
Donc si je pouvais juste faire un copier/coller que ça marche, je serai content :whistle:


C’est ptet l’occasion de fixer ça pour les prochains?
 
Genre au moins un script expect qui répond au questions à la con et orchestre le process, truc du style?

Message cité 1 fois
Message édité par masklinn le 15-11-2019 à 16:28:41

---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2341551
koskoz
They see me trollin they hatin
Posté le 15-11-2019 à 16:34:44  profilanswer
 

ratibus a écrit :

Ça râle sur du json en base mais ça fait des LIKE SQL dégueux :o


 
https://media.giphy.com/media/65ONx1Aykzjps8l19N/giphy.gif
 

Anonymouse a écrit :

Hello,
 
Ca vous parle une lib pour générer une BDD en RAM clef valeur à partir de données  
statiques en visant une faible empreinte mémoire et de bon temps d'accès?
 
1. Vous en connaissez ?
2. Ca vous parait utile ?


 
Redis ?


---------------
Twitter
n°2341552
ratibus
Posté le 15-11-2019 à 16:39:25  profilanswer
 

Memcache aussi

n°2341553
Xavier_OM
Monarchiste régicide (fr quoi)
Posté le 15-11-2019 à 16:54:34  profilanswer
 

Du C#, un Dictionary et du LINQ :o


---------------
Il y a autant d'atomes d'oxygène dans une molécule d'eau que d'étoiles dans le système solaire.
n°2341557
Anonymouse
Posté le 15-11-2019 à 17:25:41  profilanswer
 

nraynaud a écrit :


je vois pas de use case. Genre t'as un gros tas de données, il change jamais et la BDD sert juste à faire des query pas trop lentes dessus ? elle servirait que pour ses indexes ?
 


 
Le use case que j'avais c'est 3 Gigas de données (peu) avec 182 844 272 entrées (Nombre pouvant augmenter) le but étant de savoir si une entrée est stockée dedans le plus rapide possible (accès //isé) et de pouvoir reload la DB très rapidement quand MAJ.
 
Si on arrive à tuner le truc on obtient des gains en RAM assez intéressant (avec un tel nombre d'entrées et des pointeurs 64 bits la taille des données d'indexation peut très rapidement dépasser la taille des données. 2 pointeurs par données => 3 gigas de données d'indexation). Si on fait une table de hash on peut la générer en préprocessing et tuner le nombre d'entrées/la fonction de hash de telle sorte à obtenir le meilleurs ratio nombre d'entrée/nombre de collision. On peut utiliser des "pointeurs" sur 5 bytes pour gagner en ram. On peut stocker les chaines d'une même entrée de manière contiguës et triée pour ne pas avoir de pointeurs pour chaîner les éléments. On peut préprocesser le truc pour reload la DB en RAM par un simple mmap.
 
Le fait d'utiliser des BDD génériques => des baisses de perfs :
 
- Memcache vire des données à la demande et à des coups d'indexation long + le temps de redeployer les données.
- Redis est mono threadé et quid du temps de reload (Je connais peu redis)
 
J'avais vu https://www.gnu.org/software/gperf/manual/gperf.html dans l'idée mais le projet est vieux et ne passe pas avec un grand nombre d'entrées.

Message cité 2 fois
Message édité par Anonymouse le 15-11-2019 à 17:37:00
n°2341558
theShockWa​ve
I work at a firm named Koslow
Posté le 15-11-2019 à 18:11:20  profilanswer
 

Du coup, tes données sont statiques hors reload lors de mise à jour ?
Je seconde la question qui a été posée plus haut : pourquoi utiliser une base de données et pas une structure plus basique ?
Tu vises quelle vitesse pour la recherche dans ce volume de données ? Sous la seconde ? quelques millisecondes ? quelques microsecondes ?
 
Sinon, le hashing, c'est cool, mais peut-être que tu as des moyens de partitionner tes données plus intelligemment en fonction de la distribution des entrées ?
 
 


---------------
last.fm
n°2341561
masklinn
í dag viðrar vel til loftárása
Posté le 15-11-2019 à 18:56:01  profilanswer
 

Anonymouse a écrit :


J'avais vu https://www.gnu.org/software/gperf/manual/gperf.html dans l'idée mais le projet est vieux et ne passe pas avec un grand nombre d'entrées.


 
http://cmph.sourceforge.net dit qu’il gère des centaines de millions d’entrées, et selon l’algo tu descends juste au dessus de 2 bits / clé.


---------------
I mean, true, a cancer will probably destroy its host organism. But what about the cells whose mutations allow them to think outside the box by throwing away the limits imposed by overbearing genetic regulations? Isn't that a good thing?
n°2341562
Blackyell
$question = $to_be || !$to_be;
Posté le 15-11-2019 à 19:44:35  profilanswer
 

masklinn a écrit :


C’est ptet l’occasion de fixer ça pour les prochains?

 

Genre au moins un script expect qui répond au questions à la con et orchestre le process, truc du style?

 

T'imagines pas comme j'ai déjà amélioré le truc :D C'était 10 fois pire avant.

 

J'ai quelques idées pour améliorer le truc oui, mais manque de temps pour tout mettre en place.

 

Mais il faudrait notamment que j'injecte l'auth BitBucket dans chaque microservice, parce qu'à chaque composer install dans chacun des services ça demande les tokens.

 

Et plein de petits trucs comme ça. Sauf que le DevOps j'en ai un peu marre d'en bouffer :whistle:

n°2341565
Anonymouse
Posté le 15-11-2019 à 21:53:25  profilanswer
 

theShockWave a écrit :

Du coup, tes données sont statiques hors reload lors de mise à jour ?
Je seconde la question qui a été posée plus haut : pourquoi utiliser une base de données et pas une structure plus basique ?


BDD c'est un terme générique. En fait il me faut un truc key valeur.
 

theShockWave a écrit :


Tu vises quelle vitesse pour la recherche dans ce volume de données ? Sous la seconde ? quelques millisecondes ? quelques microsecondes ?


 
quelques Nanosecondes.  
 
J'ai déjà codé un truc en recherche dichotomique çà devrait faire le job et la compacité mémoire est maximale (300 ns).
 
Avec du hash on divise le temps par 4 (~= 100 ns).
 
Mais j'ai l'impression que le problème revient régulièrement. Je me demandais juste si il n'y avait que moi qu'il l'avait et si il y avait des solutions déjà toutes faite plutôt que de recoder un truc à chaque fois.
 

masklinn a écrit :


 
http://cmph.sourceforge.net dit qu’il gère des centaines de millions d’entrées, et selon l’algo tu descends juste au dessus de 2 bits / clé.


 
Intéressant. Merci je vais check


Message édité par Anonymouse le 15-11-2019 à 21:54:13
n°2341567
Devil'sTig​er
Posté le 16-11-2019 à 00:08:27  profilanswer
 

Anonymouse a écrit :


 
Le use case que j'avais c'est 3 Gigas de données (peu) avec 182 844 272 entrées (Nombre pouvant augmenter) le but étant de savoir si une entrée est stockée dedans le plus rapide possible (accès //isé) et de pouvoir reload la DB très rapidement quand MAJ.
 
Si on arrive à tuner le truc on obtient des gains en RAM assez intéressant (avec un tel nombre d'entrées et des pointeurs 64 bits la taille des données d'indexation peut très rapidement dépasser la taille des données. 2 pointeurs par données => 3 gigas de données d'indexation). Si on fait une table de hash on peut la générer en préprocessing et tuner le nombre d'entrées/la fonction de hash de telle sorte à obtenir le meilleurs ratio nombre d'entrée/nombre de collision. On peut utiliser des "pointeurs" sur 5 bytes pour gagner en ram. On peut stocker les chaines d'une même entrée de manière contiguës et triée pour ne pas avoir de pointeurs pour chaîner les éléments. On peut préprocesser le truc pour reload la DB en RAM par un simple mmap.
 
Le fait d'utiliser des BDD génériques => des baisses de perfs :
 
- Memcache vire des données à la demande et à des coups d'indexation long + le temps de redeployer les données.
- Redis est mono threadé et quid du temps de reload (Je connais peu redis)
 
J'avais vu https://www.gnu.org/software/gperf/manual/gperf.html dans l'idée mais le projet est vieux et ne passe pas avec un grand nombre d'entrées.


Redis supportera ca sans trop de problème pouvu.
=> par contre pense a monter un cluster master + X slaves... Que tu sois justement pas limité par le mono thread.
 
Mysql a de quoi faire un storage in memory: https://dev.mysql.com/doc/refman/8. [...] ngine.html
 
Postgresql (ou n'importe quel autre SQL) => créer un ramdisk et tout mettre dedans ca devrait le faire (mais c'est même pas vraiment si nécessaire que ca).
En NVMe + extension PLSQL classique, on est sous la barre des 0.03ms car le cache fonctionne particulièrement bien (mesuré en interne, -en gros- entre le firewall et l'input/output de postgres)... Donc en SQL "classique" ca n'est même pas forcément mauvais comme choix pour un jeu de donnée comme ca...
 
Perso je commencerai pas écouler tout ce qui est déjà fait, la perte de perf entre un SGBD et ton app par exemple peut descendre facilement sous la ms si bien configuré donc bon je pense pas que internaliser le storage soit aujourd'hui une si bonne idée...


Message édité par Devil'sTiger le 16-11-2019 à 00:09:28
n°2341568
rokhlan
Posté le 16-11-2019 à 12:22:26  profilanswer
 

Blackyell a écrit :

Ah non mais la demande retour du 15" chez Amazon est déjà enregistrée hein, j'ai pas hésite :D
 
Je verrai déjà comment se passe le transfert, peut-être que tout Docker fera parti du lot et que ça fonctionnera OOTB.
 
Et quand je parle de "premier lancement", c'est pas juste "une commande et zou, attendre 2h".
 
Ça installe whatmille micro-services, en posant des questions... et une fois les services installés y'a des modifs à faire sur certains fichiers, puis lancer plusieurs commandes... avec le tout qui marche une fois sur 3... bref, cette stack est moisie mais bon, pas le choix.
 
Donc si je pouvais juste faire un copier/coller que ça marche, je serai content :whistle:


T'avais pas pris un X1 ? [:transparency]

n°2341569
Blackyell
$question = $to_be || !$to_be;
Posté le 16-11-2019 à 13:10:36  profilanswer
 

rokhlan a écrit :


T'avais pas pris un X1 ? [:transparency]

 

:whistle:

n°2341570
rokhlan
Posté le 16-11-2019 à 13:14:42  profilanswer
 

Je viens de voir sur le topic dédié :D

n°2341571
el muchach​o
Comfortably Numb
Posté le 16-11-2019 à 15:29:41  profilanswer
 

Après avoir tenté d'extorquer les membres de l'OTAN, Trump fait la même chose avec la Corée du Sud et le Japon.

 

Il les menace de retirer les troupes américaines si ces pays ne payent pas respectivement 5 milliards et 8 milliards de $. Un chef de Mafia.

Message cité 1 fois
Message édité par el muchacho le 16-11-2019 à 15:30:00

---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  23045  23046  23047  ..  27198  27199  27200  27201  27202  27203

Aller à :
Ajouter une réponse
 

Sujets relatifs
Plus de sujets relatifs à : [blabla@olympe] Le topic du modo, dieu de la fibre et du monde


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)