Dein Einstieg in die Geschichte
Erkenne dich selbst, deine Geschichte und Kultur | Non-woke | Ausgewogen | Kein Gendern

Kolonialismus

Politik, die auf die Bildung von Kolonien zielt. Kolonien werden von einem sogenannten Mutterland militärisch besetzt und verwaltet. Der Kultureinfluss des Mutterlandes verändert die Kultur in den Kolonien, was positiv oder negativ bewertet werden kann. Kolonialismus geht einher mit wirtschaftlicher Ausbeutung, oft auch Ansiedlung von Kolonisten (Beseitigung von Arbeitslosigkeit im Mutterland). Manche Kolonien sind nur Handelsstützpunkte unter der Flagge des Mutterlandes. Kolonialismus ist eine Form des Imperialismus.

Der Marxismus spricht davon, dass es heute einen Neokolonialismus gebe, und versteht darunter die Auffassung, dass westliche sogenannte imperialistische Staaten ehemalige Kolonien zwar in die Unabhängigkeit entlassen hätten, sie aber dafür in eine andere, ebenso wirksame Form der wirtschaftlichen, politischen, militärischen und ideologischen Abhängigkeit gebracht hätten.

Vgl. Postkolonialismus | Dekolonisierung

Begriffe