• Matéria: Geografia
  • Autor: ezetecdroid
  • Perguntado 9 anos atrás

qual a importancia dos estados unidos na economia mundial

Respostas

respondido por: danil0borges
27
os estados unidos são a mais importante economia do planeta .trata-se de um regime capitalista liberal no qual podemos encontrar todo tipo de empresa 
Perguntas similares