jueves, 1 de octubre de 2015

Imperialismo


IMPERIALISMO 




El imperialismo es la práctica de dominación empleada por las naciones poderosas para ampliar y mantener su control o influencia sobre naciones o pueblos más débiles; aunque algunos especialistas suelen utilizar este término de forma más específica para referirse únicamente a la expansión económica de los estados capitalistas, otros eruditos lo reservan para caracterizar la expansión de Europa que tuvo lugar después de 1870.

Aunque las voces imperialismo y Colonialismo tienen un significado similar y pueden aplicarse indistintamente en algunas ocasiones, conviene establecer ciertas diferencias entre ellas.

El colonialismo, por lo general, implica un control político oficial que supone la anexión territorial y la pérdida de la soberanía del país colonizado. El imperialismo, sin embargo, tiene un sentido más amplio que remite al control o influencia ejercido sobre otra región, sea o no de forma oficial y directa.



No hay comentarios:

Publicar un comentario