Droit positif

Définition mise à jour le 14 septembre 2020

Ensemble des règles juridiques applicables dans un État à un moment donné