Afficher le menu de recherche

Définition de géographie

Géographie :
La géographie (du latin geographia, qui, à son tour, dérive d’un terme grec composé) est la science qui est chargée de la description de la Terre. Ce mot peut également être employé pour désigner le territoire ou le paysage.