الغرب ( West, The )
الغرب كلمة تعني في التاريخ الأمريكي المنطقة غير المستقرة. وهي تقع عادة غرب الأقاليم المستقرة، ومن ثم أصبحت تسمية كل من غرب وحدود تعطي المعنى ذاته. وكانت الحدود تقع فيما وراء جبال الأبلاش، بالنسبة للمستعمرين الأوائل. أمَّا اليوم، فيعني الغرب عادة آخر الحدود، أي السهول والإقليم الجبلي الذي احتله المستعمرون البيض.
★ تَصَفح أيضًا: الحياة في التخوم الغربية ؛ الزحف غربا.
المصدر: الموسوعة العربية العالمية