Définition de féminisme
Féminisme : Du latin femina (« femme »), le féminisme est la doctrine sociale favorable à la femme. Il s’agit d’un mouvement qui exige que les hommes et les femmes aient les mêmes droits : ceci dit, il concède au sexe féminin des capacités qui n’étaient réservées qu’aux hommes auparavant.