Ich hätte da so eine Frage.
Wenn man z.B. sich in 1945 ( also am Ende des 2. Weltkriegs), hat ja Deutschland ein Image von Nazitum und Rassist etc. bekommen.
Wenn man dann auf die Zeit der Kolonialisierung zurückdenkt, welche Motive/Vorgehensweise/ Form der Politik zur Imperialismus der Deutschen waren, kann man doch sagen, dass die Deutschen einerseits rassistisch gegenüber den schwarzen waren, und so berechtigt fühlten, die Gebiete einfach so für sich zu beanspruchen. Auch waren ihre Vorgehensweise und form der Politik sehr kriegrisch resp. unterdrückerisch, womit man ja eigentlich wieder mit dem 2.weltkriegimage von Deutschland vergleicht werden kann, da deutschland während 2. weltkrieg sehr auf Krieg hinausging.
Motive/Vorgehensweise/ Form der Politik zur Imperialismus der Deutschen sind wohl eher negativ. Doch gäbe es auch Argumente speziell für die Deutschen, wofür z.B. ihre Vorgehensweise verstädnlich und akzeptabel ist ?
z.B. einfach zu sagen, die Deutschen hätten die moderne Medizin in Afrika eingeführt ist ja kein richtiges Argument für die Deutschen, da das von jeder Kolonialmacht behauptet werden kann.
Ich bitte um ein paar Ideen.
Thx
Mfg
Wenn man z.B. sich in 1945 ( also am Ende des 2. Weltkriegs), hat ja Deutschland ein Image von Nazitum und Rassist etc. bekommen.
Wenn man dann auf die Zeit der Kolonialisierung zurückdenkt, welche Motive/Vorgehensweise/ Form der Politik zur Imperialismus der Deutschen waren, kann man doch sagen, dass die Deutschen einerseits rassistisch gegenüber den schwarzen waren, und so berechtigt fühlten, die Gebiete einfach so für sich zu beanspruchen. Auch waren ihre Vorgehensweise und form der Politik sehr kriegrisch resp. unterdrückerisch, womit man ja eigentlich wieder mit dem 2.weltkriegimage von Deutschland vergleicht werden kann, da deutschland während 2. weltkrieg sehr auf Krieg hinausging.
Motive/Vorgehensweise/ Form der Politik zur Imperialismus der Deutschen sind wohl eher negativ. Doch gäbe es auch Argumente speziell für die Deutschen, wofür z.B. ihre Vorgehensweise verstädnlich und akzeptabel ist ?
z.B. einfach zu sagen, die Deutschen hätten die moderne Medizin in Afrika eingeführt ist ja kein richtiges Argument für die Deutschen, da das von jeder Kolonialmacht behauptet werden kann.
Ich bitte um ein paar Ideen.
Thx
Mfg