Définition de finances
Finances : Le terme finance qui est d’origine française désigne l’engagement qu’une personne assume pour pouvoir répondre à ses obligations envers quelqu’un d’autre. Le concept concerne aussi la fortune, les biens et le Trésor public.