Postagens do Blog

sexta-feira, 2 de agosto de 2019

BIG DATA FUNDAMENTOS 2.0


BIG DATA FUNDAMENTOS 2.0
Fonte: E-bookBigDataV2.pdf (Este arquivo é liberado depois de concluído o curso de Big Data) Aproveito a oportunidade para agradecer ao excelente trabalho no desenvolvimento do conteúdo deste E-book, recomendo fazerem o curso de Big Data para atualizarem-se.

Cerca de 90% de todos os dados gerados no planeta, foram gerados nos últimos 2 anos.
Aproximadamente 80% dos dados são não-estruturados ou estão em diferentes formatos, o que dificulta a análise. Modelos de análise de dados estruturados, possuem limitações quando precisam tratar grandes volumes de dados.
Muitas empresas não sabem que dados precisam ser analisados Muitas empresas nem mesmo sabem que os dados estão disponíveis Dados preciosos são descartados por falta de conhecimento ou ferramentas de tratamento. É caro manter e organizar grandes volumes de dados não-estruturados.
Estamos em um período de transformação no modo em que dirigimos nossos negócios e, principalmente, as nossas vidas. Neste exato momento, uma verdadeira enxurrada de dados, ou 2.5 quintilhões de bytes por dia, é gerada para nortear indivíduos, empresas e governos, e está dobrando a cada dois anos. Toda vez que fazemos uma compra, uma ligação ou interagimos nas redes sociais, estamos produzindo esses dados. E com a recente conectividade em objetos, tal como relógios, carros e até geladeiras, as informações capturadas se tornam massivas e podem ser cruzadas para criar roadmaps cada vez mais elaborados, apontando e, até prevendo, o comportamento de empresas e clientes. Entre 2005 e 2020, o universo digital irá crescer de 130 exabytes para 40.000 exabytes ou 40 trilhões de gigabytes. Em 2020, haverá 5.200 gigabytes para cada homem, mulher e criança no planeta Até 2020, o universo digital irá dobrar de tamanho a cada 2 anos. A revolução não está nas máquinas que calculam os dados e sim nos dados em si e na maneira que são utilizados.

AFINAL, O QUE É BIG DATA?

Big Data é uma coleção de conjuntos de dados, grandes e complexos, que não podem ser processados por bancos de dados ou aplicações de processamento tradicionais.

Capacidade de uma sociedade de obter informações de maneiras novas a fim de gerar ideias úteis e bens e serviços de valor significativo. O Google estima que a humanidade criou nos últimos 5 anos, o equivalente a 300 Exabytes de dados ou seja:
300.000.000.000.000.000.000 bytes de dados.

Podemos definir o conceito de Big Data como sendo conjuntos de dados extremamente amplos e que, por este motivo, necessitam de ferramentas especialmente preparadas para lidar com grandes volumes, de forma que toda e qualquer informação nestes meios possa ser encontrada, analisada e aproveitada em tempo hábil.

De maneira mais simplista, a ideia também pode ser compreendida como a análise de grandes quantidades de dados para a geração de resultados importantes que, em volumes menores, dificilmente seriam alcançados. No mundo do Big Data, por sua vez, não temos de nos fixar na causalidade; podemos descobrir padrões e correlações nos dados que nos propiciem novas e valiosas ideias.

Muitos dos dados gerados, possuem um tempo de vida curto e se não analisados, perdem a utilidade. Dados são transformados em informação, que precisa ser colocada em contexto para que possa fazer sentido. É caro integrar grandes volumes de dados não-estruturados. Dados potencialmente valiosos em sistemas ERP, CRM ou SCM são descartados ou perdidos apenas porque ninguém presta atenção neles.

QUAL O TAMANHO DO BIG DATA?
BIG DATA FUNDAMENTOS 2.0



IMPORTÂNCIA DO BIG DATA

  • Porque surgiram tecnologias que permitem processar esta grande quantidade de dados de forma eficiente e com baixo custo.
  • Os dados podem ser analisados em seu formato nativo, seja ele estruturado, não estruturado ou Streaming (fluxo constante de dados).
  • Dados podem ser capturados em tempo real.
  • Dados podem ser transformados em insights de negócios.

DESAFIOS

Encontrar profissionais habilitados em Big Data. Compreender as plataformas e ferramentas para Big Data.
Coletar, armazenar e analisar dados de diferentes fontes, em diferentes formatos e gerados em diferentes velocidades.
Migrar do sistema tradicional de coleta e armazenamento de dados, para uma estrutura de Big Data.

OS 4 V’S DO BIG DATA

VOLUME: Tamanho dos dados
VELOCIDADE: Na geração de dados
VARIEDADE: Do formato dos dados
VERACIDADE: Confiabilidade dos dados

Espera-se que 40 zettabytes de dados sejam criados até 2020 no mundo;
Cerca de 2.5 quintillionbytes de dados são criados por dia;
Existem atualmente cerca de 6 bilhões de telefones móveis no planeta;
Cada empresa americana armazena cerca de 100 Terabytes de dados.


OBSERVAÇÕES IMPORTANTES 

Existem programas como o NoSql, que fazem as tratativas dos dados no Big Data com muita rapidez e alta escalabilidade, sendo o NoSql uma classe de bancos de dados que diverge do modelo de sistema de gerenciamento de bancos de dados relacionais – não fazendo uso primário de tabelas e não usando, no geral, declarações SQL para efetuar a manipulação de dados. Para introduzir estas novas ferramentas não podemos esquecer que deverá haver um mapeamento de processos, gerenciamento de mudanças, gerenciamento de nível de acordo de serviços, analisando o quanto esta mudança vai afetar os serviços acordados, gestão de riscos, analisando os riscos iminentes da mudança, e, o gerenciamento de configuração de ativos e serviços, avaliando o que vai mudar nas configurações de hardware e software.

Depois de ler o artigo, responda a seguinte enquete.

Vejam Também:
Big Data (Aplicação)
Big Data, Hadoop, BlockChain, Internet das coisas

Grato,
Jefferson Daminelli Garcia

Nenhum comentário:

Postar um comentário

Postagem em Destaque

Maquina Virtual

  O QUE É UMA MÁQUINA VIRTUAL Uma máquina virtual , conhecida como guest, é criada dentro de um ambiente de processamento, chamado host. ...

Postagens Mais Visitadas

Últimas Postagens