FilmbegriffeFilmgenre

Western

Filmlexikon | Was ist ein Western?

Western Definition

Bei einem Western oder einem Westernfilm handelt es sich um ein Filmgenre, das von der Besiedelung und Eroberung des Wilden Westens im Zeitraum zwischen 1850 und 1900 erzählt. Da der Western mit der Besiedelung des nordamerikanischen Kontinents die Gründungsgeschichte der amerikanischen Nation erzählt, gilt er als das amerikanische Filmgenre schlechthin.

Zu den beliebtesten Westernfilmen gehören etwa „Butch Cassidy und Sundance Kid“ (1969), „Der mit dem Wolf tanzt“ (1990) oder „Spiel mir das Lied vom Tod“ (1968). Bei letzterem handelt es sich um einen sogenannten Italo-Western, welche in den 1960er Jahren entstanden und eine Unterkategorie des Westernfilms bilden.

Western Eigenschaften

Die Rolle des Protagonisten spielt in einem Western klassischerweise ein Cowboy oder Sheriff, der für Ordnung in der Stadt sorgt. In den ersten Western wurde dieser noch fast ausnahmslos als Held präsentiert, dem oft ein umso skrupelloserer Bösewicht entgegengestellt wurde. Besonders charakteristisch für den Western sind außerdem Revolverduelle, die auf der meist menschenleeren Hauptstraße eines Ortes zwischen den beiden Kontrahenten ausgetragen werden. Typische Handlungsorte sind die Kleinstadt, der Saloon, die Prärie oder das Indianerdorf.

 

« zurück zum Filmlexikon

Ähnliche Artikel

Für dich auch interessant
Schließen
Schaltfläche "Zurück zum Anfang"