Western

Le dictionnaire contient de nombreuses définitions de mots, de lieux et des articles sur des véhicules ou objets célèbres dans l'univers des séries télés et des films.

Avatar du membre
DdStv Staff
Qu’allez-vous faire? Je me disais que j’allais écouter vos théories, les rejeter, puis ne garder que la mienne. Comme d’habitude. (Docteur House, Cameron et House)
Messages : 588
Enregistré le : 20 nov. 2005 23:12
France

Western

Message par DdStv Staff »

Western
Le western est un genre cinématographique dont l'action se déroule généralement en Amérique du Nord, plus spécialement aux États-Unis, lors de la conquête de l'Ouest dans les dernières décennies du xixe siècle. Il apparaît dès l'invention du cinématographe en 1895, en filiation directe avec la littérature et la peinture prenant pour sujet l'Ouest américain. Il connaît son apogée aux États-Unis au milieu du xxe siècle avec l'âge d'or des studios hollywoodiens, avant d'être réinventé par les cinéastes européens dans les années 1960.

Le terme « western » a été appliqué postérieurement à d'autres arts visuels ou littéraires (peinture, télévision, bande dessinée, roman) et désigne aujourd'hui toute production artistique influencée par l'atmosphère et les poncifs de la représentation cinématographique de l'Ouest américain.

Retourner vers « Dictionnaire »