Bonjour,
C'est une problématique qui revient régulièrement et je n'ai toujours pas trouvé de solution satisfaisante : comment transférer de gros volumes de données de serveur à serveur de manière efficace ?
Un gros volume de données à mon sens ca peut être simplement 10 Go. C'est pas beaucoup mais réparti en 50000 fichiers ca prend jusqu'à 2 heures ... alors quand on a 200 Go en 1M de fichiers ca prend plusieurs jours.
Le problème vient bien sur du nombre important de fichiers. Je suppose qu'une nouvelle connexion est établie pour chaque fichier ? J'ai l'habitude d'utiliser robocopy pour faire mes transferts, fonctionne-t-il de cette manière, en ouvrant une nouvelle connexion pour chaque fichier ?
Les outils de backup qui disposent d'agent ont des taux de transfert jusqu'à 10 fois supérieur car ils envoient toutes les données à la suite et qu'ils compressent le flux. Existe-t-il un outil capable de faire la même chose en vue de faire un transfert de fichier ?