• Matéria: História
  • Autor: enzodeornellas
  • Perguntado 5 anos atrás

po que os portugueses afirmaram que descobriram o Brasil e não o conquistaram?​

Respostas

respondido por: brunoziedast
3

pois ná epoca não era uma economia lucrativa, que veio a ser depois

respondido por: luzianapinheirofl
2

Resposta:

Não necessariamente, pois; * Dizer que os portugueses descobriram o Brasil não necessariamente quer dizer que antes da chegada dos portugueses o Brasil estava perdido e não havia ninguém. ... Deste modo, colocando o Brasil no mapa da terra eles também tornaram conhecido tudo o que havia no Brasil, isto inclui os índios.

Explicação:

certinho acredite❤️

Perguntas similares