Dieser Artikel behandelt die
Geschichte Deutschlands im 20. Jahrhundert. Zur deutschen Geschichte im 20. Jahrhundert vor 1918 siehe
Deutsches Kaiserreich.
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit
Belegen (beispielsweise
Einzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst und
gute Belege einfügst.
Die weltbewegende Geschichte von Deutschland im 20. Jahrhundert umfasst den Ersten Weltkrieg mit dem Ende von Monarchie und Kaiserreich, die Weimarer Republik und die Deutsche Inflation 1914 bis 1923, den Nationalsozialismus, den Zweiten Weltkrieg mit dem Großdeutschen Reich, dem Holocaust und dem Verlust der Ostgebiete des Deutschen Reiches, die Deutsche Teilung und ihre Überwindung.