Wann Wurde Deutschland Ein Land?

Autor: | Zuletzt Aktualisiert:

Deutschland ist ein Land in Westeuropa. Es ist flächenmäßig das siebtgrößte Land in Europa und teilt seine Grenzen mit neun Ländern. Berlin ist die Hauptstadt von Deutschland.

Kurze Geschichte Deutschlands

Deutschland wurde am Februar 2nd, 962 AD gegründet. Ihren ursprünglichen Namen erhielt sie von dem römischen Kaiser Julius Caesar, der die Gebiete östlich des Rheins als Deutschland, basierend auf der Tatsache, dass er sie noch zu erobern hatte. Die Stämme Deutschlands wurden im 10 Jahrhundert von der Migration zum zentralen Teil des Heiligen Römischen Reiches gemacht. Der Zusammenbruch dieses Reiches führte zur Gründung des Deutschen Bundes in 1815.

In 1866 besiegte Preußen Österreich und ihre alliierten Verbündeten und beendete damit den seit dem X. Jahrhundert andauernden Einfluß Österreichs in Deutschland. Dieser Sieg erleichterte die Bildung der von Preußen geführten Norddeutschen Föderation.

Es folgten drei siegreiche Kriege gegen Dänemark, die Habsburger Monarchie und Frankreich. Otto von Bismarck, der preußische Kanzler, initiierte den französisch - preußischen Krieg mit Frankreich in 1870, indem er den französischen Kaiser irritierte, um die Deutschen zu vereinigen. Preußen, das damals drei Fünftel Deutschlands besetzte, siegte. Eine aufkommende Forderung nach einem traditionellen Kabinett und einer diplomatischen Regierung durch die Führer des Norddeutschen Bundes führte auf der 18th Januar 1871 zur Bildung des Deutschen Reiches. Diese Initiative wurde als Vereinigung Deutschlands bezeichnet, weil sie zu einem Nationalstaat mit gut integrierten politischen und administrativen Waffen wurde. Bismarck kämpfte, um die Deutschen weiter zu konsolidieren, indem er den Sozialismus förderte. Seine Amtszeit endete in 1890, als er zum Rücktritt gezwungen wurde, nachdem er sich der widersprüchlichen Herrschaft des neuen jungen und ehrgeizigen Kaisers Wilhelm II. Widersetzt hatte. Das deutsche Reich fiel in 1918 nach der deutschen Revolution.

Deutschland wurde später in 1947 durch eine Niederlage von Nazi-Deutschland im Zweiten Weltkrieg und dem Beginn des Kalten Krieges in zwei Teile geteilt, Ostdeutschland und Westdeutschland. Ostdeutschland war ein Diktaturstaat, während Westdeutschland eine parlamentarische Demokratie ausübte. Die Wiedervereinigung Deutschlands erfolgte in 1990, aber zu den Bedingungen Westdeutschlands. Die Deutsche Demokratische Republik (DDR) und die Bundesrepublik Deutschland (Bundesrepublik Deutschland) unterzeichneten Verträge, die nicht nur die Vereinigung des Landes, sondern auch Berlin als eine einzige Stadt sahen. Unter den Verträgen hat der "Zwei-plus-Vier-Vertrag" sowohl die ostdeutschen als auch die westdeutschen Länder vor der Union zu einem einzigen Gebiet unter der Regierung Deutschlands verpflichtet und auch erklärt, dass es außerhalb dieser Grenzen keine Länder gibt, die zu Deutschland gehören.

Wann wurde Deutschland ein Land?

Die Definition von Deutschland als Land wird in drei Bedeutungen verwendet. Das erste Datum ist, als Deutschland als eine Region anerkannt wurde, im Februar 2nd, 962 AD. Das zweite Datum ist Januar 18th, 1871, als Deutschland ein einheitlicher Staat wurde. Endlich, im Oktober 3rd, war 1990, als Ostdeutschland und Westdeutschland vereinigt wurden, um die heutige Bundesrepublik Deutschland zu bilden.