Analisando padrões em imensos volumes de dados pode-se prever desde a magnitude de uma epidemia a sinais de uma provável ocorrência de uma seca severa.
O termo Big Data está cada vez mais popular, embora ainda esteja mal compreendido. Observo em muitas palestras que não existe consenso quanto a que realmente é Big Data e quais as tecnologias fundamentais que o sustentam. E mais ainda, existem muitas dúvidas de como tangibilizar o conceito, ou seja, como sair do conceitual e criar soluções de negócio que agreguem valor para as companhias.
Eliminar estas dúvidas é essencial e o primeiro passo para as empresas se aventurarem em projetos Big Data.
Para colocarmos o termo em contexto, Big Data vem chamando atenção pela acelerada escala em que volumes cada vez maiores de dados são criados pela sociedade. Já falamos comumente em petabytes de dados gerados cada dia, e zetabytes começa a ser uma escala real e não mais imaginária e futurista. O que era futuro há uma década, terabytes, hoje nós já temos nas nossas próprias casas.
O assunto Big Data começa a chamar atenção. Diversos estudos e pesquisas apontam que muitas empresas começam a implementar iniciativas nesta área.
Por mais que pareça irônico, já que se trata de um ambiente virtual e não físico, um dos grandes problemas da computação é a escassez de espaço. O que parece muito está cada vez menor, tamanha a quantidade de informação produzida.
O termo Big Data começa a despertar muita atenção, mas ainda é um conceito mal definido e menos compreendido ainda. Com uma rapida pesquisa ao Google identifiquei pelo menos uma dúzia de definições.
O conceito de business intelligence veio para tentar acabar com esse engessamento e pemitir aos executivos que possam tirar um raio-x de suas empresas.