Définition(s) du mot DERMATOLOGIE


Définitions

dermatologie nom féminin : Partie de la médecine qui étudie et soigne les maladies de la peau, des phanères (cheveux, ongles) et des muqueuses.