Menu schließen

Die 20er Jahre in Deutschland

Frage: Die 20er Jahre in Deutschland
(1 Antwort)

 
Hey ihr,
nach den Krisenjahren nach dem 1.Weltkrieg kamen nach 1923 die goldenen Zwanziger.
Der Staat stabilisierte sich doch politisch und wirtschaftlich und auch Kunst und Kultur hatten ihre Blütezeit... Doch warum haben so viele Menschen, insbesondere Künstler, dann die Gesellschaft so kritisiert? Ich denke die Zeit war so toll? Wieso übt man solch eine Sozialkritik?
ANONYM stellte diese Frage am 18.11.2007 - 15:36

 
Antwort von GAST | 18.11.2007 - 16:05
...die zwanziger jahre waren insgesammt gesehen eigentlich mehr schein als sein.
die wirtschaft stabilisierte sich bloß auf grund der kredite,
die deutschland aufgenommen hatte, um die reperaturszahlungen zahlen zu können. als die wieder zurückgezahlt werden musste brach alles zusammen - wirtschaftskriese ende 20er, anfang 30er.
auch politisch stabilierte sich nicht alles. die politiker waren eigentlich mehr am erfolg als am wohlergehen der bevölkerung interessiert.
gibt noch voll viele punkte... schau mal bei wikipedia nach und bei zwanziger-jahre.de

Verstoß melden
Hast Du eine eigene Frage an unsere Geschichte-Experten?

> Du befindest dich hier: Support-Forum - Geschichte
ÄHNLICHE FRAGEN:
BELIEBTE DOWNLOADS: