Définition(s) du mot WESTERN


Définitions

western nom masculin : 1. Film dont l'action se situe dans le Far West américain et qui illustre certains épisodes de la conquête des terres de l'Ouest sur les Indiens.
2. Genre cinématographique constitué par ces films.
3. Familier. Action très mouvementée, poursuite, bagarre.

Définitions

western adjectif : Se dit d'un style qui rappelle celui des décors de western.