IMPERIALISMO
El imperialismo es la práctica de dominación empleada
por las naciones poderosas para ampliar y mantener su control o influencia
sobre naciones o pueblos más débiles; aunque algunos especialistas suelen
utilizar este término de forma más específica para referirse únicamente a la
expansión económica de los estados capitalistas, otros eruditos lo reservan
para caracterizar la expansión de Europa que tuvo lugar después de 1870.
Aunque las voces imperialismo y Colonialismo tienen
un significado similar y pueden aplicarse indistintamente en algunas ocasiones,
conviene establecer ciertas diferencias entre ellas.
El colonialismo, por lo general, implica un control político
oficial que supone la anexión territorial y la pérdida de la soberanía del país
colonizado. El imperialismo, sin embargo, tiene un sentido más amplio que
remite al control o influencia ejercido sobre otra región, sea o no de forma
oficial y directa.
No hay comentarios:
Publicar un comentario