Définition(s) du mot BIOLOGISME


Définitions

biologisme nom masculin : Doctrine qui considère que les phénomènes individuels et/ou collectifs qui affectent l'homme doivent être analysés avec les méthodes de la biologie.