• Matéria: Informática
  • Autor: guilhermeff192
  • Perguntado 3 anos atrás

O Apache Hadoop é um framework que permite atuar com processamento distribuído de grandes conjuntos de dados através de clusters de computadores utilizando modelos simples de programação (HADOOP, 2022).

O Apache Hadoop é muito utilizado nos projetos de processamento de dados. Um dos seus principais componente é o MapReduce, que tem seu funcionamento baseado em

Selecione uma alternativa:
a)
quebrar um problema em subproblemas, em uma etapa chamada de Reduce, resolvê-los e, então, agregar as respostas parciais em uma final, em uma etapa chamada Map.

b)
armazenar um conjunto de dados na memória de múltiplas máquinas, em uma etapa chamada Reduce e, quando necessário, consultar estes dados em uma etapa chamada Map.

c)
armazenar um conjunto de dados na memória de múltiplas máquinas, em uma etapa chamada Map e, quando necessário, consultar estes dados em uma etapa chamada Reduce.


d)
armazenar um conjunto de dados na memória de múltiplas máquinas, em uma etapa chamada Map e, em seguida, processar estes dados em uma etapa chamada Reduce.

e)
quebrar um problema em subproblemas, em uma etapa chamada de Map, resolvê-los e, então, agregar as respostas parciais em uma final, em uma etapa chamada Reduce.

Respostas

respondido por: leandroalvesccc
4

Resposta:
• e)quebrar um problema em subproblemas, em uma etapa chamada de Map, resolvê-los e, então, agregar as respostas parciais em uma final, em uma etapa chamada Reduce.

Explicação:

750 pontos

Perguntas similares