Diccionarios

Imperialismo

Imperialismo

El imperialismo es cuando un país se apodera de nuevas tierras o países y los somete a su dominio.


Ver el vídeo: EL IMPERIALISMO 1886-1914. Cuando Europa conquistó el mundo (Septiembre 2021).