Lexikon K wie Kolonialismus

Das Wort Kolonialismus bedeutet, dass ein Land Gebiete in einem anderen Land erobert. Obwohl dort bereits Menschen leben. Die Eroberer übernehmen dann die Herrschaft über die bisherigen Einwohner. Das eroberte Gebiet nennt man Kolonie. Kolonien gab es auch schon bei den alten Römern und Griechen, also vor mehr als 2000 Jahren. Aber heute meint man mit „Kolonialismus“ eine ganz bestimmte Zeit: Um das Jahr 1500 herum begannen mehrere europäische Länder damit, andere Teile der Erde zu erobern, vor allem in Amerika, Asien und Afrika. Zu den größten sogenannten Kolonialmächten gehörten Großbritannien, Spanien, Portugal, Frankreich und die Niederlande. Auch Deutschland hatte Kolonien. Die Kolonialmächte wollten durch die Eroberung anderer Länder ihren Einfluss und ihre Macht in der Welt vergrößern. Sie verdienten viel Geld mit dem Verkauf von kostbaren Rohstoffen aus den Kolonien wie Gold, Diamanten und Gewürze. Die Einheimischen wurden unterdrückt. Sie mussten für die Eroberer arbeiten, wurden versklavt, in andere Länder verkauft, vertrieben oder ermordet. Sie mussten die Sprache, Religion und Lebensweise der Kolonialmächte annehmen und hatten keine Rechte mehr.

Hier (klick) geht's zur Übersicht aller Lexikon-Einträge.