Respostas
respondido por:
1
O Brasil é um país tropical( ou seja recebe uma maior incidência dos raios solares); somado ao fato dos brasileiros ficarem muito tempo expostos ao sol, e não se protegerem de forma adequada, o câncer de pele é uma das consequência.
Espero ter ajudado:)
Perguntas similares
5 anos atrás
5 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás