Tecnologias de Big Data: Uma Visão Geral Abrangente
Classificado em Computação
Escrito em em português com um tamanho de 4,2 KB
Hadoop: É um cluster de processamento distribuído, usado para processamento de grandes quantidades de dados.
Componentes do Hadoop: Name Node, Job Tracker e Data Node + Task Tracker + Map Reduce.
HDFS: É uma camada de software utilizando arquivos como blocos em filesystem tradicional formatado em cima dos discos internos. É um sistema de arquivos distribuído feito para armazenar grande quantidade de arquivos.
Google FS: É um sistema de arquivos escalável para aplicações de distribuição intensiva de dados.
Spark: É um mecanismo de processamento open source construído visando na velocidade e facilidade de uso.
MapReduce: É um modelo de programação que permite o processamento de dados massivos em um algoritmo paralelo e distribuído.... Continue a ler "Tecnologias de Big Data: Uma Visão Geral Abrangente" »