• Matéria: Geografia
  • Autor: RyanLucas5909
  • Perguntado 3 anos atrás

os estados unidos entraram fundamentalmente na segunda guerra mundial no ano de 1941

Respostas

respondido por: dantas8664
0

Resposta:

sim, após o  Ataque a Pearl Harbor no dia  7 de dezembro de 1941

Explicação:

Perguntas similares