Respostas
respondido por:
6
Resposta:
Brasil e Alemanha estabeleceram relações diplomáticas em 1871, logo após a Unificação Alemã e a criação do Império Alemão. Rompidas no contexto da II Guerra Mundial, as relações foram retomadas em 1951. ... Dezenove ministros brasileiros recepcionaram as autoridades alemães e realizaram encontros setoriais de trabalho.
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás