Respostas
respondido por:
3
Sim, o Brasil é um país capitalista, como quase todos os países do mundo.
respondido por:
2
Sim nossa nação é capitalista, desigual e de esquerda, assim o que importa é o dinheiro para os governantes muitas vezes e não o bem comum e a igualdade para a massa popular.
Perguntas similares
7 anos atrás
7 anos atrás
7 anos atrás
10 anos atrás
10 anos atrás
10 anos atrás
10 anos atrás
10 anos atrás