Bonjour à tous,
J'ai un petit problème en python. (mais le langage importe peu au final)
J'ai un énorme fichier (450Mo, 350'000 entrées) que je lis à chaque lancement de mon programme pour en extraire les informations. (genre ID->Age, ID->ID2, ID2->ID, ID->Taille, etc....). Il y a d'autres fichiers de taille moinde, mais pas négligeable (genre 90'000 entrées).
Je lis mon fichier et j'en extrais les informations utiles. Ces informations sont placés dans des Dictionnaires. (= hashtable, table de hashage en d'autres langages)
Ensuite j'utilise ces informations avec un autre fichier.
Y'aurait-il un moyen simple et élégant pour ne pas devoir lire à chaque fois cet énorme fichier et gagner du temps de calculs ?
J'ai pensé à une base de donnée comme MySQL, mais ça prendrait du temps pour la lire je pense (j'ai quand même 350'000 entrées).
Sinon j'ai entendu parler de DBM et GDBM, pour stocker des dictionnaires en dur. Quelqu'un utilise ça ?
Un avis ?
Message édité par Rasthor le 13-04-2006 à 10:41:35