Hello,
J'aimerais mettre sur pied une application web, et pour en alimenter le contenu, j'ai besoin de récupérer à intervalles réguliers et fréquents (toutes les 2 ou 5 minutes par exemple) des données externes sur les internets magiques. Pour l'instant, je fais ça via curl et php (parce qu'à part les langages de matheux genre R et python, je ne m'y connais pas assez dans le reste du paysage). De mémoire (j'y ai pas accès dans l'immédiat), j'ai un serveur mutualisé chez hostinger pour l'hébergement de mon site, mais lorsque je fais tourner le script (avec cron), je dépasse très vite la charge serveur à laquelle j'ai droit.
Quelles sont les possibles solutions à mon problème ? (Est-ce que je suis obligé d'utiliser mon ordi pour faire tourner le script ? Il doit bien être possible de louer quelque part un serveur qui soit à l'abri du bsod qui frappe régulièrement mon pc)
J'ai vaguement entendu parler d'AWS, et avant de me lancer dans une tentative de compréhension approfondie, j'aimerais vérifier : est-ce que ça représente une solution viable ? Si oui, qu'est-ce que je dois chercher comme service parmi leurs offres, et quels sont les concurrents, que je compare ? Et si non, est-ce qu'il y a autre chose ?
(Il est possible que ce que je dis soit confus, voire n'ait aucun sens : en me lisant comme dans votre réponse, n'hésitez pas à garder en tête que je n'y connais quasi rien dans ce qui est architecture back end, serveur, linux, tout ça )
Merci d'avance.
Message édité par saint malo le 03-03-2016 à 01:34:44