Respostas
respondido por:
6
Resposta:
Os sindicatos são uma importante forma de associação no Brasil, exercendo atividades que vão desde a representação dos trabalhadores à forte atuação no cenário político nacional.
Explicação:
Espero ter ajudado
Perguntas similares
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
8 anos atrás
8 anos atrás
8 anos atrás