Ok. Je pense encore qu'il s'agit d'un "plan" au lieu d'un "modèle".
En gros, cela a pour conséquence que les SGBD vont tous utiliser des index, quand il y en a, au lieu de balayer toute la table, ce qui est très logique.
L'ordre de l'énonciation des tables et/ou des critères de recherche dans une requête a aussi une influence, car il vaut mieux indiquer en premier ce qui est le plus discriminant, parce que ça marche en faisant plusieurs filtres, et c'est mieux si le premier filtre permet de donner une petite liste dès le début, plutôt que d'avoir un premier filtre qui ramènerait une grande liste avec laquelle une ou plusieurs grandes jointures seraient faites, pour finalement avoir un filtre terminal qui réduirait à un petit résultat.
Mais, c'est de la théorie scolaire (du bullshit obsolète), car en pratique, les SGBD moderne utilisent les statistiques, la mémoire cache, et d'autres astuces secrètes, pour optimiser, et surtout car l'optimisation des requêtes est secondaire par rapport à la bonne définition d'une base de données. Le principal, ce sont les règles de normalisation de E. Codd, qui sont rarement enseignées, malheureusement.