• Matéria: História
  • Autor: leonardos13160328
  • Perguntado 3 anos atrás

Sobre os Estados Unidos da América (EUA) é correto afirmar que:

Os EUA eram uma colônia do Brasil

Os EUA eram uma colônia da Inglaterra

OS EUA eram uma colônia do Canadá

Os EUA eram uma colônia de Portugal

Os EUA eram uma colônia da França

Respostas

respondido por: sergioadarioneto
1

Resposta:

os EUA eram uma colônia da Inglaterra

respondido por: matheuserralima
0

Resposta:

Os EUA eram uma colônia da Inglaterra

Explicação:

Perguntas similares