Respostas
respondido por:
2
O Brasil foi colonizado por europeus.
Na primeira instância, era uma relação de servidão, já que os portugueses conquistaram nossas terras, e nossos ancestrais eram obrigados a servirem aos europeus. Conforme a consolidação brasileira no mercado mundial, essa relação foi se tornando menos servil. Hoje em dia, já podemos ver que é uma relação comum.
Perguntas similares
6 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás