Inicio Tags Colonialismo

Colonialismo

El colonialismo es la política de un país que busca extender o retener su autoridad sobre otras personas o territorios, generalmente con el objetivo de dominar la economía. En el proceso de colonización, los colonizadores pueden imponer su religión, economía y otras prácticas culturales a los pueblos originarios. Los invasores, o intrusos extranjeros, gobiernan el territorio buscando beneficiarse de las personas y los recursos de la región colonizada.