• Matéria: Geografia
  • Autor: Josesalessilva
  • Perguntado 5 anos atrás

Qual é a importância da agricultura no Brasil?​

Respostas

respondido por: kaykiryan9917
1

Resposta:

 agricultura é um setor econômico que influencia de forma muito significativa no desenvolvimento do Brasil. – gerar matérias-primas para fabricar álcool, e combustível alternativo brasileiro, e para favorecer as indústrias.

Explicação:

Espero ter ajudado :)

Perguntas similares