Dein Einstieg in die Geschichte
Erkenne dich selbst, deine Geschichte und Kultur | Non-woke | Ausgewogen | Kein Gendern

Kolonialismus

Politik, die auf die Bildung von Kolonien zielt. Kolonien werden von einem sogenannten Mutterland militärisch besetzt und verwaltet. Der Kultureinfluss des Mutterlandes verändert die Kultur in den Kolonien, was positiv oder negativ bewertet werden kann. Kolonialismus geht einher mit wirtschaftlicher Ausbeutung, oft auch Ansiedlung von Kolonisten (Beseitigung von Arbeitslosigkeit im Mutterland). Manche Kolonien sind nur Handelsstützpunkte unter der Flagge des Mutterlandes. Kolonialismus ist eine Form des Imperialismus.

Begriffe