• Matéria: Geografia
  • Autor: souzaryane
  • Perguntado 9 anos atrás

SOBRE O FIM DA SEGUNDA GUERRA MUNDIAL,É VERDADEIRO AFIRMAR QUE:
a) Estados Unidos e Grã-Bretanha foram os países derrotados e tiveram que reconhecer o domínio alemão na Europa
b) Embora a guerra tenha terminado em 1945,o Japão assinou sua rendição apensa em 1948
c) Alemanha,Itália e Japão saíram derrotados,marcando o fim dos governos fascistas na Europa
d) Japão,Estados Unidos e França foram os países que mais saíram fortalecidos politicamente após a Segunda Guerra Mundial

Respostas

respondido por: arthur0699
2
c) Alemanha,Itália e Japão saíram derrotados,marcando o fim dos governos fascistas na Europa


respondido por: samanthamoffy22
3
c) Alemanha,Itália e Japão saíram derrotados,marcando o fim dos governos fascistas na Europa 

Perguntas similares