Bonsoir,
Voilà le topo :
J'ai du Tina pour la sauvegarde de données (gros volume). Mes sauvegardes se font sur des lecteurs LTO2 connectés en fiber channel.
Les performances de ce petit monde sont, selon les cas, bonnes ou très mauvaise.
D'un coté, les serveurs Windows (virtuels ou non), pas de problème malgré la volumétrie.
D'un autre coté, Unix (pas de virtuel), perf à chier malgré une volumétrie moindre.
En gros, Windows rapide, Unix lent malgré une volumétrie moitié moins importante.
Tout ce petit monde se partage les mêmes lecteurs. La grande différence se situe au niveau des OS et des SAN (FC vs Ethernet cuivre).
Je suis donc à la recherche de témoignage et d'avis sur l'utilisation de Tina "sur le terrain". Selon vos expériences, quels sont les éléments participant aux perfs d'un système de sauvegarde ? L'implémentation de Tina sous Windows est-elle meilleure que sous Unix ? Accéder à un SAN en FC est-il vraiment plus rapide qu'en ethernet giga ? L'utilisation de NDMP est-elle obligatoire pour obtenir de bonnes perfs ?
Je suis assez désemparé car je pense qu'il n'existe pas un problème, mais une conjonction de plein de petites merdres. L'obsolecence de l'infra unix est aussi probablement en jeu.
Un peu à part, je me demande par quel biais Tina accède aux données. A quel moment intervient le protocole Tina (ou ndmp) ? Si mon serveur accède à sa baie de stockage en NFS, le Tina qui tourne sur le serveur utilise-t-il également NFS pour lire les données ? je suppose que oui. Au pire, je verrai avec Atempo, mais je préfère avoir des infos extérieures.
Merci d'avance. Je suis preneur de toute info.