Définition(s) du mot CARIE


Définitions

carie nom féminin : Maladie du blé et d'autres plantes cultivées, causée par un champignon microscopique qui atteint les grains.