Wissenschaft
Über das Buch
Als das Deutsche Reich 1918 seine Kolonien verlor, war die deutsche Kolonialgeschichte noch nicht abgeschlossen. Ökonomisch war den Kolonien nie große Bedeutung zugekommen, dennoch waren an deren Besitz Wünsche, Hoffnungen und Phantasien geknüpft, die sich auf Selbstverständnis und Kultur der Deutschen auswirkten. Sie fanden Eingang in Literatur, Film, Werbung und Gesetzgebung. Der Band zeigt, wie der Kolonialismus zwischen 1884 und 1945 die Vorstellungen von "Rassen" und vom "Fremden" veränderte und damit das Selbstbild der Deutschen als Männer, als Frauen, als Weiße, als Bürger.