Respostas
respondido por:
0
O país que forçou o Brasil a entrar na WW2 foi o EUA pois ele deu um ultimato no Brasil e além disso navios brasileiros foram atacados por submarinos alemães levando o Brasil a entrar na guerra. Os EUA deram ao nosso exército treinamentos profissionais e armas modernas
Perguntas similares
6 anos atrás
6 anos atrás
8 anos atrás
8 anos atrás
9 anos atrás
9 anos atrás