ça veut dire quoi ?
Cette affirmation signifie quoi ?
Etre français implique-t-il d'avoir des racines bien ancrée en france ?
Comment devient-on un français respecté en tant que tel ?
Selon vous, sans aborder le côté juridique actuel de la chose, quels sont les déterminants qui font qu'une personne sera française aux yeux de tout le monde ?