Afficher le menu de recherche

Définition de finances

Finances :
Le terme finance qui est d’origine française désigne l’engagement qu’une personne assume pour pouvoir répondre à ses obligations envers quelqu’un d’autre. Le concept concerne aussi la fortune, les biens et le Trésor public.