Arquivo para setembro 23rd, 2013
Big Data com uso de Hadoop 2.0
Conforme afirmou Merv Adrian, analista da empresa de pesquisa Gardner, o Hadoop 2.0 é “um passo importante”, tornando-se uma tecnologia com “um ambiente operacional de dados muito mais versátil”, e agora trabalha também com ferramentas tradicionais SQL.
Hadoop, é um dos vários projetos da Fundação de Software Livre Apache, o software mais usado em servidores, foi construída em Java, usa computação distribuída HDFS (Hadoop Distributed File System) e trabalha com os conceitos de MapReduce e GoogleFS (GFS), conceitos importantes para tratar BigData.
O projeto de alto-nível da Apache foi construído por uma comunicade de desenvolvedores, que inclui até mesmo o Yahoo, veja os contribuidores no wiki da Apache.
Até agora, porém o Hadoop tem sido usado principalmente para reduzir enormes conjuntos de dados para análise, mas apenas em lotes, e não fluxos (Workflow) que agora é possível.
Segundo pesquisa da Gartner em 720 empresas, feita em junho, 64% estavam investindo em BigData, o que representa 58% em relação ao ano passado, e Hadoop 2.0 promete um tratamento simplificado para pequenas e médias empresas no controle do Workflow.