Territorium
Zur Navigation springen
Zur Suche springen
Der Begriff Territorium hat mehrere Bedeutungen:
- allgemein: ein Teil der Erdoberfläche
- völkerrechtlich: Hoheitsgebiet eines Staates
- in der deutschen Geschichte (vor allem vom Mittelalter bis 1806) Bezeichnung für das Herrschaftsgebiet eines Landesherrn oder einer Reichsstadt im Unterschied zu dem des (übergeordneten) Heiligen Römischen Reiches. Die Territorien besaßen, spätestens seit dem 16. Jahrhundert und schließlich dem Westfälischen Friedn (1648) meist größere Macht als die kaiserliche Zentralgewalt. Mit dem Ende des Heiligen Römischen Reiches 1806 wurden die damals bestehenden Territorien zu unabhängigen Staaten, aus denen sich schließlich die deutschen Länder und heutigen Bundesländer entwickelten.