Respostas
respondido por:
3
Resposta:
Explicação:
Para falar a verdade o Brasil não foi descoberto. Existia um tratado chamado tratado de Tordesilhas, que separava a América do Sul em duas partes, uma para a coroa Portuguesa e outra para a Coroa Espanhola, o Brasil antes de ser expandido pelos bandeirantes estava na parte da Coroa Portuguesa, eles já sabiam disso, de fato somente não exploravam. Oque mudou foi o interesse de outros países no Brasil, e a facilidade de exportação de Portugal para Brasil do Brasil para outro país, a Inglaterra lucrou muito com a "descoberta" do Brasil também.
Perguntas similares
4 anos atrás
4 anos atrás
4 anos atrás
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás