la norme USB, de base, c'est 5V et 0.5A.
Ensuite, tu as des appareils qui sont capable de tirer partie d'une intensité plus élevée.
Ex : les fiches USB des machines Apple délivre du 1A, et les iPhone sont capable d'en tirer partie.
Un iPhone rechargera presque 2x plus vite sur un Mac (USB 1A) que sur un PC lambda (USB 0.5A).
Pour un chargeur, qui peut le plus peut le moins : tu peux brancher un appareil qui consomme 0.1A sur un chargeur capable de délivrer 3A, ça ne posera aucun souci.
Le chargeur mentionne son intensité Max qu'il est capable de fournir, et en pratique il s'ajustera tout seul en fonction de ce que l'appareil va demander.
De plus, cet ampèrage influe directement sur l'énergie transmise à l'appareil : P=UxI
Donc :
- avec un chargeur de 0.5A, ton appareil reçoit 2.5W
- avec un chargeur de 2.1A, ton appareil peut recevoir jusque 10.5W (si il est capable de les absorber)
=> la réflexion initiale est bonne 
Et c'est utile avec certains appareils très gourmands en énergie pour conserver un niveau de charge convenable (ex. Les Nokia Lumia en navigation GPS)
Message édité par cartemere le 16-10-2013 à 17:42:31