• Matéria: Geografia
  • Autor: yasmimcaracas4923
  • Perguntado 3 anos atrás

O que significa dizer que o brasil e um país afro-brasileiro?

Respostas

respondido por: Sannyzx
0

Resposta:

O Brasil, em virtude de sua grandeza territorial, é considerado um país continental Você provavelmente já ouviu dizer por aí que o Brasil é um país continental ou com dimensões continentais, não é mesmo?


Bons estudos!

Perguntas similares