Respostas
respondido por:
1
Resposta:
Efetivamente a medicina entre os romanos, se deu durante o Império. A cidade de Alexandria era onde estavam as principais escolas de medicina, e os médicos que saiam formados de lá tinham muito prestígio. ... Os romanos deram atenção as práticas de higiene e os médicos tiveram grande influência entre os imperadores.
vieira0102tai:
obrigadaaaaa
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás