Em big data, o sistema de arquivos hdfs é usado para armazenar arquivos muito grandes de forma distribuída, tendo como princípio o write-many, read-once.
Respostas
respondido por:
0
Incorreto! Em big data o sistema de arquivos HDFS é usado para armazenar arquivos muito grandes baseado no princípio Write once - Read many (não write-many, read-once como diz o texto)
Arquivos HDFS no big data
Hadoop Distributed File System (HDFS) é o principal componente do ecossistema Hadoop. Essa peça possibilita armazenar conjuntos de dados massivos com tipos de dados estruturados, semiestruturados e não estruturados, como imagens, vídeos, dados de sensores, etc.
Ele é otimizado para armazenar grandes quantidades de dados e manter várias cópias para garantir alta disponibilidade e tolerância a falhas. É uma tecnologia fundamental para Big Data.
Entenda mais sobre Big Data: https://brainly.com.br/tarefa/47293099
Anexos:
Perguntas similares
3 anos atrás
3 anos atrás
5 anos atrás
5 anos atrás
5 anos atrás
7 anos atrás
7 anos atrás