• Matéria: Geografia
  • Autor: agathasoares2943
  • Perguntado 3 anos atrás

O que significa dizer que o Brasil é um país Continental​

Respostas

respondido por: lany7140
1

Resposta:

Significa que o Brasil tem proporções continentais, esse termo é associado ao país pois o Brasil é o maior pais da América do Sul


agathasoares2943: obrigado
lany7140: de nada
Perguntas similares