• Matéria: Biologia
  • Autor: Isabellepat15
  • Perguntado 5 anos atrás

qual a importância de se conhecer os tecidos que formam o corpo?

me ajudem​

Respostas

respondido por: samara1234b
0

Resposta: Os tecidos do corpo humano são grupos de células com formato e funções parecidas. O principal objetivo dos tecidos do corpo humano é sustentar o corpo. A ciência responsável pelo estudo dos tecidos é a histologia

Explicação:Espero ter ajudado

Perguntas similares