• Matéria: Geografia
  • Autor: iarlleupaozudo
  • Perguntado 5 anos atrás

faça um comentário sobre a importância do turismo no brasil​

Respostas

respondido por: viniciustoledosilvas
2

Resposta:

O turismo no Brasil e importante para a Economia, resumindo gera LUCRO, sendo isso bom para o Nosso país, alem de promover inclusão social, e gerar oportunidades de emprego.

  • Espero que tenha ajudado, Bons estudos!!!!

Perguntas similares