• Matéria: Geografia
  • Autor: alexalvesdasilva409
  • Perguntado 4 anos atrás

Qual foi o tratado que afirmou que o continente não permaneciam a nenhum país

Respostas

respondido por: isabellycrismar
0

Resposta:

O tratado da Antártida, é um acordo firmado desde 1959, que determina o uso do continente para fins pacíficos.

Explicação:

Perguntas similares