Respostas
respondido por:
2
Resposta:
Com certeza não! O Brasil é em sua maioria totalmente influenciado pela cultura americana.
EXPLICAÇÃO
A visão etnocêntrica é aquela que vê o mundo com base em sua própria cultura, desconsiderando as outras culturas ou considerando a sua como superior às demais.
Perguntas similares
5 anos atrás
5 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás