Droit positif

Définition mise à jour le 14 mai 2019

Ensemble des règles juridiques applicables dans un État à un moment donné