• Matéria: Geografia
  • Autor: Josiane1985
  • Perguntado 3 anos atrás

Quais são os países continentais da América oque isso significa

Respostas

respondido por: monicamamed14
0

Resposta: Brasil, Canadá, Estados Unidos e Austrália são países continentais, que significa que um país continental é quando o território nacional é muito grande, por isso é comparável à área de um continente.

Explicação:

Perguntas similares