Afficher le menu de recherche

Définition de féminisme

Féminisme :
Du latin femina (« femme »), le féminisme est la doctrine sociale favorable à la femme. Il s’agit d’un mouvement qui exige que les hommes et les femmes aient les mêmes droits : ceci dit, il concède au sexe féminin des capacités qui n’étaient réservées qu’aux hommes auparavant.