• Matéria: Geografia
  • Autor: joaopedroholandah
  • Perguntado 6 anos atrás

Muitos estudos hoje comprovam que o Brasil é um país essencialmente urbano. O que faz do Brasil um país urbano? explique​

Respostas

respondido por: MG060215
3

Resposta:

Antigamente, a população era mais rural, pois as pessoas não buscavam uma qualidade de vida melhor, que é a que se encontra nas cidades, por exemplo : se eu nascesse em uma família de fazendeiros, no meu futuro eu me tornaria um fazendeiro também, atualmente as pessoas que nascem em áreas rurais estão procurando qualidade de vida na cidade, por isso o Brasil é um país urbano.

Espero ter ajudado

Perguntas similares