Définition de géographie
Géographie : La géographie (du latin geographia, qui, à son tour, dérive d’un terme grec composé) est la science qui est chargée de la description de la Terre. Ce mot peut également être employé pour désigner le territoire ou le paysage.