Depuis quelques temps, les politiques et les médias s'intéressent de plus en plus à l'Afrique, mais pourquoi :
- Est-ce une prise de conscience face à un continent qui fait face à tout les fléaux : sida, misère, famine, guerre ?
- Ou bien y-t-il par derrière que des intérêts économique : la Chine qui s'établit lentement mais surement en Afrique en établissant des infrastructures dans les pays africains mais sans faire participer la population locale, ce sont des ouvriers chinois qui sont "importés. Ou encore l'exemple du Darfur, est-ce vraiment le génocide qui est le problème ou bien le fait que le Soudan est le grand fournisseur de pétrole pour la Chine ?
Ne serait-ce pas qu'un plan machiavélique de l'impérialisme américain pour mettre le pieds sur quasiment le seul continent ou elle n'est pas fortement "présente", d'ailleurs vous aurez remarqué que dernièrement on voit de plus en plus de films hollywoodien à propos de l'afrique, et on sait combien la machine hollywoodienne a été utilisé pour faire passer ses messages.
Alors késako ?