• Matéria: Geografia
  • Autor: vilmafigueiredo35
  • Perguntado 7 anos atrás

qual a importancia da agricultura no brasil

Respostas

respondido por: SonYashiromoraes1
1

Resposta:

A importância da agricultura no Brasil. A agricultura é um setor econômico que influencia de forma muito significativa no desenvolvimento do Brasil. – gerar matérias-primas para fabricar álcool, e combustível alternativo brasileiro, e para favorecer as indústrias.

Perguntas similares