Définition(s) du mot AMERICANISMES


Définitions

américanisme nom masculin : 1. Ensemble des sciences humaines appliquées à l'étude du continent américain.
2. Engouement pour les États-Unis, leurs idées, leurs manières de vivre.
3. Idiotisme propre à l'anglais d'Amérique du Nord.
4. Tendance à préférer l'action pratique à l'étude ou à la contemplation, attribuée à certains milieux ecclésiastiques des États-Unis, groupés à la fin du xixe s. autour du professeur Th. Hecker. (Une lettre de blâme de Léon XII, en 1899, mit fin à cette tendance.)