• Matéria: História
  • Autor: pauogplays
  • Perguntado 4 anos atrás

2* Qual a importância do trabalho dos imigrantes para o Brasil?​

Respostas

respondido por: Clinicaunica1
0

Resposta:

O Brasil é um país que sempre recebeu imigrantes. Estes colaboraram, assim como os negros africanos e os índios, para a formação da cultura e da sociedade brasileira. Imigrar, no sentido da palavra propriamente dita, significa entrar em um país que não é o seu de origem para ali viver ou passar um período de sua vida.

respondido por: almeidaizabella198
0

Resposta:

O Brasil é um país que sempre recebeu imigrantes. Estes colaboraram, assim como os negros africanos e os índios, para a formação da cultura e da sociedade brasileira. Imigrar, no sentido da palavra propriamente dita, significa entrar em um país que não é o seu de origem para ali viver ou passar um período de sua vida.

Perguntas similares