Définition(s) du mot BIOLOGIE


Définitions

biologie nom féminin : 1. Ensemble de toutes les sciences qui étudient les espèces vivantes et les lois de la vie.
2. Plus particulièrement, étude scientifique du cycle reproductif des espèces animales et végétales, du déroulement de la vie individuelle, par opposition à la physiologie, qui étudie les lois constantes du fonctionnement des êtres.