
Dados crocantes
Segunda -feira trouxe a primeira surpresa da Snowflake Summit 25: A aquisição de dados crocantes por US $ 250 milhões relatados. A Crunchy Knowledge é uma empresa estabelecida da Carolina do Sul que está sendo executada e construída no banco de dados de código aberto Postgres há mais de uma década, então o que levou a gigante de dados de US $ 70 bilhões a comprá-los agora?
Quando as crianças legais estavam indo para os bancos de dados Hadoop e NoSQL no início de 2010, Paul Laurence, presidente e co-fundador da Dados crocantesteve uma ideia diferente. Embora essas outras tecnologias tivessem seus apoiadores e sucessos, Laurence estava focada em outra tendência emergente-uma que também envolveu entusiasmo pelo potencial de código aberto, mas sem toda a quebra de regras que Hadoop e Nosql implicavam.
“Eles estavam fazendo uma aposta em uma nova caixa de ferramentas de gerenciamento de dados de código aberto, onde tinham esses bancos de dados NoSQL. Isso fazia parte de onde eles estavam indo”, Laurence contado Bigdatawire Em uma entrevista em julho de 2024. “Mas eles também viram isso como uma oportunidade de mudar para o código aberto do lado relacional e do SQL. E avaliaram a paisagem e selecionaram o Postgres como uma espécie de sua grande aposta”.
Laurence também decidiu fazer uma aposta no Postgres em 2012, quando co-fundou dados crocantes em Charleston, Carolina do Sul, com seu pai, Bob. Ao longo dos anos, a empresa lançou uma variedade de ofertas de Postgres, incluindo uma distribuição suportada do banco de dados chamado Crunchy Postgres, uma versão do Postgres para ser executada em contêineres Kubernetes, uma versão hospedada em nuvem chamada Crunchy Bridge e, finalmente, uma versão de análise chamada Crunchy Bridge para análises.
Quando 2024 chegou, os dados crocantes haviam construído um negócio sólido com 100 funcionários e 500 clientes. Todos os seus produtos são 100% compatíveis com o Postgres, uma garantia crítica para os clientes da empresa, bem como o combustível que impulsiona o crescimento contínuo do Postgres. A aposta em uma peça chata de tecnologia relacional criada por Michael Stonebraker há 35 anos havia valido a pena, que é um pequeno milagre na câmara de eco orientada por hype.
“Postgres foi amplamente demitido quando começamos. Period realmente tudo sobre Hadoop e MongoDB”, disse Laurence. “Period muito contrário na época … outras pessoas diriam ‘Vocês são loucos. O que vocês estão fazendo começando uma empresa de banco de dados SQL? O SQL está morto. Isso não é mais uma coisa actual.’”
Snowflake encontra um postgres
Você também não confundiria o Snowflake por ser um grande fã de Hadoop ou Nosql. De fato, o sucesso da empresa é baseado em grande parte na onda de falhas no Hadoop no last de 2010.
“Não consigo encontrar um cliente Hadoop feliz. É tão simples assim”, Bob Muglia, ex -CEO da Snowflake, disse a esta publicação Em março de 2017.
Muglia, é claro, estava certo: o Hadoop continuaria implode no início de junho de 2019abrindo assim o caminho para a ascensão de knowledge warehouses e lakehouses baseados em nuvem, incluindo o Snowflake. Pouco mais de um ano depois, em meio à pandemia covid-19, o floco de neve foi famoso como o IPO de software program “Maior de todos” sempre.
Desde então, o Snowflake está em uma corrida de pescoço e pescoço com Databricks Para desenvolver a preeminente plataforma de dados em nuvem do setor. O Databricks, é claro, é a empresa por trás do Apache Spark, que também contribuiu para o declínio da pilha Hadoop. Embora a Spark ainda esteja lá, é apenas uma parte do que o Databricks faz mais.
Como seu rival, o Snowflake também está se afastando de onde começou. Embora o Snowflake tenha adotado arquiteturas de análise mais recentes para seus RDMBs, incluindo o armazenamento de colunas no estilo MPP e a separação de computação e armazenamento, sob as cobertas, a grande aposta do Snowflake foi sobre o SQL tradicional e as tecnologias relacionais.
O grande despertar do Snowflake com o novo CEO Sridhar Ramaswamy tem sido a importância da abertura e uma mudança da tecnologia proprietária. Foi isso que o levou no ano passado a adotar o Apache Iceberg, o formato da tabela de código aberto que resolveu vários problemas de consistência que surgiram com os padrões de acesso a dados no estilo buffet do Hadoop.
O apoio às mesas de iceberg como uma alternativa às mesas tradicionais do Snowflake também abriu a porta para os clientes de flocos de neve trazerem uma variedade de motores de consulta alternativos para suportar dados de flocos de neve, incluindo trino de código aberto, Presto, Dremio, Spark e Apache Flink, entre outros.
Agora, com a aquisição de dados crocantes, o Snowflake possui um banco de dados de código aberto inteiro em oferta. Snowflake Postgres, como é chamada a nova oferta, traz aos clientes toda a bondade aberta do Postgres e seu enorme ecossistema.
Então, o que mudou? Por que o Snowflake está fazendo isso agora?
O que mudou no Snowflake
O que mudou é a IA Agentic surgiu em cena, e o Snowflake sentiu que os clientes não ficariam felizes usando seu banco de dados proprietário relacional relacional de floco de neve para lidar com essa carga de trabalho emergente.
Embora o banco de dados do Snowflake seja poderoso e capaz, a empresa não está prestes a abri -lo e permitir que os clientes modifiquem o banco de dados para lidar com essas cargas de trabalho de IA agênticas emergentes da mesma maneira que puderam com um banco de dados de código aberto – que pudessem com o Postgres.
O Snowflake, o EVP, Christian Kleinerman, abordou as razões por trás da aquisição de dados crocantes durante uma sessão de perguntas e respostas com a imprensa na segunda -feira no Snowflake Summit 25.
“Acho que, em primeiro lugar, confirma nosso compromisso com a interoperabilidade e depois a escolha do cliente”, disse Kleinerman. “Eu acho que o código aberto é um pouco menos importante. Mas o que importa com o Postgres não é se é de código aberto ou não. O que importa é que há uma comunidade muito grande de pessoas que valorizam o Postgres construídas para o Postgres, construir no topo do Postgres.
“Foi isso que nos levou”, continuou ele. “Esse foi o requisito para muitos dos clientes e parceiros que ouvimos, que é que gostamos de grande parte da tecnologia que você constrói, mas tornaria muito mais fácil trazer computação, trazer aplicativos e até trazer agentes para os dados se você tiver algo que seja compatível com o PostGres.”
Quando se trata de interoperabilidade e padrões, Postgres é rei. A mudança do Snowflake mostra que os clientes estão dispostos a suportar um pouco menos de desempenho se voltarem com interoperabilidade e padrões.
O Snowflake analisou o potencial de criar uma camada compatível com o Postgres no topo de seu banco de dados existente, mas, no last, decidiu comprar dados crocantes.
“Os clientes e parceiros disseram, por favor, me dê compatibilidade pós -Gres”, disse Kleinerman. “Perguntamos a um de nossos principais engenheiros absolutos, de classe mundial, prime 10, prime 20 do mundo no design do banco de dados, podemos caminhar a semântica do Postgres e a API do Postgres no topo do nosso mecanismo? E a resposta foi um documento muito, muito longo sobre por que não funcionará.
“E se os clientes desejam compatibilidade com o Snowflake, o Snowflake é ótimo”, continuou ele. “O que fizemos com as mesas da Unistore e Hybrid é ótimo. Mas se eles querem compatibilidade com o Postgres, não é apenas a sintaxe, a semântica e tudo isso. Tem que ser o Postges. A única maneira de alcançar a compatibilidade é com as postgres.”
A propósito, os Databricks fizeram a mesma matemática e decidiram comprar o Neon, desenvolvedor de um banco de dados PostGres sem servidor, por US $ 1 bilhão.
Apesar de todo o progresso no Huge Knowledge, nada aparentemente pode vencer o SQL e a tecnologia relacional.
Itens relacionados:
Databricks Nabs Neon para resolver o gargalo do banco de dados AI