Définition(s) du mot ANATOMIES


Définitions

anatomie nom féminin : 1. Science qui a pour objet l'étude de la forme et de la structure des êtres organisés, et celle des rapports des organes qui les constituent : Anatomie humaine, anatomie végétale.
2. Forme extérieure du corps considéré sous son aspect esthétique ou athlétique : Une belle anatomie. Synonymes: corps - physique - plastique