• Matéria: Geografia
  • Autor: jojotoddy
  • Perguntado 8 anos atrás

O Brasil é considerado um país urbano, mas nem sempre foi assim. Explique a afirmação.
Por favor me responda o mais rápido possível

Respostas

respondido por: Diehgo
7
Até 1930, quando o país começou a se industrializar e se urbanizar, era maioritariamente um país rural, com sua economia voltada para a agricultura, como café, algodão, milho e outros. 
Perguntas similares