Amazon Web Services lança serviço para Big Data


Empresa liberou a solução Amazon Kinesis para gerenciar processamento em tempo real de alto volume e streaming de dados. Outra novidade é uma nova oferta para banco de dados PostgreSQL.

A Amazon Web Services (AWS) acaba de apresentar ao mercado duas novidades para voltadas para bancos de dados. Uma delas é o Amazon RDS para o PostgreSQL, que administra tarefas administrativas complexas e demoradas. A outra é o Amazon Kinesis, serviço totalmente gerenciado para o processamento em tempo real de alto volume e streaming de dados. 

Ambas ainda não estão disponíveis para o Brasil, mas já podem ser adquiridas em serviços oferecidos nos Estados Unidos.

O Amazon RDS administra tarefas como a instalação do PostgreSQL e upgrades de software, gerenciamento de armazenamento, replicação para alta disponibilidade e backups para recuperação de desastres. 

Segundo a AWS, com apenas alguns cliques no AWS Management Console, os clientes podem implantar um banco de dados PostgreSQL em minutos com os parâmetros configurados automaticamente gerando um desempenho ideal. 

Ainda é possível provisionar um banco de dados PostgreSQL com cinco gigabytes de armazenamento para iniciar e facilmente escalar a capacidade para até três terabytes sem incorrer em qualquer tempo de inatividade. O PostgreSQL é o quarto motor de banco de dados para o Amazon RDS, que já suporta MySQL, Oracle e implementações do Microsoft SQL Server.

Big Data

Já com o Amazon Kinesis, os clientes podem armazenar e processar terabytes de dados a partir de centenas de milhares de fontes, o que facilita o desenvolvimento de aplicações que medem dados em tempo real, como stream de cliques de web sites, transações de marketing e financeiras e feeds de mídias sociais.

As aplicações Amazon habilitadas para Kinesis podem gerenciar dashboards em tempo real, gerar alertas, orientar as decisões de negócios tais como a mudança de preços e estratégias de publicidade ou enviar dados para outros serviços de BigData, tais como Amazon Simple Storage Service (Amazon S3), Amazon Elastic Map Reduce(Amazon EMR) ou Amazon Redshift. 

"Até hoje a maioria do processamento de Big Data é feita através de lotes, como aqueles usados pelo Hadoop ou por meio de tecnologias de banco de dados, tais como armazéns de dados. Uma vez que estes dados são armazenados e processados em sistemas de lotes, eles não são capazes de suportar aplicações que precisam processar streaming de rápida mudança de dados em tempo real", informa a AWS. 
Compartilhe no Google Plus

About Tiago Sousa

Sou Desenvolvedor Web Full-Stack com ênfase na tecnologia Java. Estou no mercado de TI há 15 anos, possuo conhecimentos gerais em diversas tecnologias.