Resultados de busca
243 resultados encontrados com uma busca vazia
- Saiba como gerar insights para o seu negócio
Neste artigo o dataholic Gustavo Lima, consultor de Tableau e Business Intelligence da Dataside, compartilha algumas maneiras de gerar insights para o seu empreendimento. Tudo começa na forma em que enxergamos aquele dado e para isso precisamos trabalhar algumas habilidades, sejam elas técnicas ou humanas. Desenvolvimento de habilidades Para gerar insights, precisamos observar os dados com algumas softs e hardskills. No vídeo abaixo segue algumas delas que são importantes para esse momento: Agregue, agregue, agregue A agregação nos diz como os dados são combinados, como a média das idades dos estudantes de ensino superior em uma determinada instituição, ou a soma de todos os alunos que foram aprovados no vestibular. As agregações são feitas com campos quantitativos e podem mostrar as maiores tendências em seus dados. Quando disponibilizamos campos quantitativos no Tableau, eles são agregados por padrão, mas podem ser desagregados manualmente para mostrar os pontos de dados separados para cada valor de dados em cada linha da fonte de dados. Um outro caso de agregação seria se você fosse um desenvolvedor, como você vai avaliar se os usuários estão se engajando na sua aplicação? Perguntando para cada um e analisando caso a caso? Não é uma coisa escalável. Porém, podemos analisar a média de quanto tempo os usuários estão logados no app, dividindo o total de tempo gasto pela quantidade de usuários. Granularidade, é enfeite de brigadeiro?! Outro fator importante é a granularidade, que significa o quanto os dados estão detalhados. No exemplo abaixo, no indicador da esquerda, você pode observar o total de vendas de forma agregada, em apenas uma barra e sem muitos detalhes. Esse é um cenário onde a granularidade do dado é baixa. Já no indicador da direita, observamos um detalhamento maior das vendas, classificadas por cliente. Com isso, aumentando a granularidade e seu nível de detalhe. Trazendo esse conceito para o mundo real, o Starbucks é um grande case de sucesso, em que a empresa aumentou o nível de granularidade para conquistar mais o cliente. Ela criou um programa de fidelidade em um cartão e aplicativo móvel, e assim a Starbucks começou a possuir dados individuais de compra de milhões de clientes. Usando BI e inteligência artificial, a empresa tenta prever compras e envia ofertas individuais do que os clientes provavelmente preferem através de seu aplicativo e e-mail. Isso acaba gerando um engajamento maior dos clientes existentes com mais frequência e aumenta o volume de vendas. O que o gafanhoto tem a ver com uma carta de baralho? Entre eles nada, mas era só para chamar a atenção sobre a correlação, um outro ponto bem relevante para geração de insights dentro de uma visualização. A correlação é uma técnica que pode mostrar se e com que intensidade os pares de variáveis quantitativas estão relacionados. Por exemplo, a quantidade de energia que você gasta numa atividade física e o seu índice de massa corporal, ou algum evento/ação do governo que impactou na bolsa de valores. Mas não é algo exato. Muitos de nós conhecemos alguém que malha bastante, porém é difícil conseguir massa muscular e, outras que têm muita facilidade. Ou determinadas ações do governo que nem fizeram alterações nas ações da B3. No entanto, o IMC é calculado pelo peso / (altura x altura). Logo as pessoas com IMC menor que 18,5 estão abaixo do peso, entre 18,5 – 24,9 no peso normal, entre 25 – 29,9 sobrepeso e assim consequentemente. A correlação pode dizer quanto da variação do peso e altura está relacionada ao seu condicionamento físico. Isso é tudo pessoal Espero que tenha gostado, deixe nos cometários o que achou e se tiver outras dicas compartilhe conosco!
- A importância dos eventos tecnológicos para o mercado
Um questionamento comum entre os empresários, gestores e pessoas com sua carreira em construção, é como fazer crescer e expandir a rede de alcance do seu negócio para se tornar uma referência, ou conquistar seu espaço no mercado. Essas podem ser as mesmas pessoas, que contam nos dedos suas participações em eventos e festivais de tecnologia, sem perceber a importância de acompanhar esse tipo de movimentação. Uma rede de oportunidades Se “uma andorinha só não faz verão” por que o crescimento de uma empresa poderia ser independente e isolado? Dentre as coisas que falta para muitas empresas elevarem seu crescimento no mercado, estão a oportunidade e o apoio, ambas podem ser proporcionadas pela inserção e envolvimento com os projetos e programas que disseminam conhecimento, geram parcerias ou distribuem aprendizado em outras áreas. Existem muitos nichos dentro da área tecnológica, logo, é fácil encontrar uma forma de fazer parte de eventos que promovem a inovação através dela. Mesmo assim, há os que não enxergam nesse meio a oportunidade de crescimento que seu negócio precisa para decolar, por isso a importância de divulgar e exemplificar cada um dos benefícios por trás de eventos voltados à tecnologia. Networking Em eventos assim, é importante estar disposto a fazer trocas de conhecimento e experiência, geralmente estão presentes profissionais técnicos e representantes de muitos nichos, ou seja, é o melhor lugar para estabelecer relações comerciais e parcerias. Estar aberto para relações assim, significa abrir as portas da sua empresa para uma visão nova que pode observar talvez com mais imparcialidade e precisão, algo que foge de olhos corriqueiros e acostumados. Crescer em conjunto, e com apoio de outros servidores não é somente um caminho mais fácil, é também proveitoso e rico em compartilhamento de influência e informações. Visibilidade Todo bom empreendedor sabe enxergar uma boa oportunidade de “conquistar o terreno”, assim como é possível conseguir parceiros de negócios, também é tornar seu trabalho visível diante de pessoas que podem nem saber que precisam de seus serviços. Uma palestra bem-feita, pode fazer tanto por você quanto um bom comercial, além é claro, de se mostrar proativo e investidor em áreas que interessam e fazem bem a todos, como a tecnologia. Aprendizado Ocasiões como essas, também são perfeitas para quem deseja aprender e inovar através da vivência de profissionais capazes. É uma ótima oportunidade para empresas que precisam investir no treinamento técnico dos profissionais, e optam por uma forma lúdica e interativa de fazê-lo e vice-versa, afinal que outra forma melhor de aprender há, se não ensinando! Seja um apoiador Por essas razões, a Dataside escolheu apoiar e patrocinar o festival da tecnologia Microsoft, que sendo um evento gratuito e 100% digital, contará com a presença de palestrantes diversificados e capazes de inspirar e ensinar qualquer profissional que também saiba reconhecer o valor da tecnologia em qualquer ramo. O festival Microsoft que ocorre no dia 7 de maio, também conta com quem promove o week365, que ocorre entre os dias 4 e 8 de abril, a University365 tem a proposta de disseminar aprendizado e descobrir novos talentos por ser uma EdTech. Se quiser conhecer um pouco mais do trabalho da Uni365 para com a comunidade, é só conferir as palestras da week que ficarão salvas no canal. Assim fica fácil usar a tecnologia a seu favor! Gostou? Então não esquece de deixar um comentário e de compartilhar com os gestores que você quer como parceiros de eventos!💙😎
- Sistemas e formas de armazenamento de dados
O Big Data é conhecido generalizadamente por seus 4 V’s: Volume, Variedade, Velocidade e Veracidade, embora hoje existam muitas pessoas que abordam outros V’s dentro deste conceito. Neste artigo, o dataholic Rodrigo Santana vai abordar o seguinte tema: Sistemas de Armazenamento de Dados, o que consequentemente nos leva ao V de Volume, já que retrata a grande quantidade de informações que o mundo recebe diariamente. Continue lendo! Armazenando Grandes Volumes de Dados O Volume em Big Data é um dos fatores críticos e importantes a serem analisados dentro de uma empresa que deseja trabalhar de forma orientada a dados, e consequentemente com grandes volumes de dados, pois este em questão pode impactar diretamente os custos da empresa. Como armazenar grandes volumes de dados? Para essa pergunta já temos vários fatores a serem apontados, como o custo gerado devido ao armazenamento dos dados, storage, instalações elétricas tais como ar-condicionado e manutenção, e se porventura não optar por realizar toda infraestrutura de forma local, e partir para serviços em cloud, existem valores de cobranças dos serviços contratados. Acessando Grande Volume de Dados Como realizar o acesso a grandes conjuntos de dados armazenados? Realizar buscas dos dados armazenados de forma rápida, mas ao mesmo tempo de forma confiável, faz com que seja necessário o uso de recursos complementares. Esses recursos precisam ter controle de manipulação de forma assertiva para execução de cada tarefa, pois de nada adianta armazenar dados brutos se você não puder realizar posteriores análises e retirar insights, ou seja, obter o verdadeiro valor que estes dados possuem para facilitar a tomada de decisão. E o controle por traz deste armazenamento e busca do local de armazenamento, geram custos para que se mantenha seguro e eficiente. É Necessário Armazenar Todos os Dados? Não, afinal como foi citado acima, armazenamento gera custo. Não quer dizer que não possa realizar o armazenamento de tudo que for extraído das fontes de dados, mas tenha em mente que tudo que for armazenado será cobrado posteriormente. Leve em consideração a premissa para o uso dos seus dados, ou seja, entenda o seu negócio e a entrega de valor que o projeto levará ao fim do processo, com isso você conseguirá filtrar de forma mais assertiva os dados necessários para cada trabalho. Afinal, entre os 4 V’s está um que julgo de suma importância, o V de Valor. De nada adianta ter dados armazenados se não conseguir tratá-los e retirar informações necessárias para tomada de decisão mostrando assim seu verdadeiro Valor. Formas de Armazenamento no Big Data Mais uma vez caímos no ponto crucial, que por muitas vezes é negligenciado. Antes de definirmos a forma de armazenar, devemos considerar a regra de negócio, mas abaixo vamos tentar apontar um pouco da visão e possibilidades de armazenamento em Big Data. Data Warehouse: Esta é a forma mais conhecida, por proporcionar o armazenamento e conexão de diversas fontes de dados no processamento tipo batch, ou seja, um armazenamento feito em lotes/conjuntos que foram processados por um período, segue o padrão de dados em forma tabular e estruturada. Porém, hoje com o grande volume de dados, os Data Warehouse mais modernos já estão possibilitando o tipo de armazenamento de dados não estruturados, embora essa ainda não seja a melhor opção para esse tipo de dados. Os dados processados no tipo batch, definem seus schemas (esquemas) antes do armazenamento dos dados. Esse procedimento realiza conexões entre as tabelas e torna possível gerar conexões através de chaves primarias, chaves estrangeiras e índices através de um SGBD, como por exemplo um SQL Server. Todo esse procedimento realizado tem como objetivo auxiliar as áreas de negócio com informações para gerar relatórios e análises para tomada de decisão. Data Lake: O conceito a ser seguido para o Data Lake difere do Data Warehouse pela possibilidade de armazenamento com processamento do tipo batch, que é carregado após um período de dados armazenados/coletados, no Data Lake os arquivos são processados de forma rápida e dinâmica. Assim, são armazenados de forma crua, o qual recebe o nome de processamento do tipo: streaming. Porém, existem alguns cuidados a serem tomados durante o armazenamento, por exemplo, o processo de armazenamento deve ser realizado com cuidado no uso de mecanismos que garantam padrões onde os dados serão catalogados. Caso contrário, os dados podem se tornar lixo, ou Data Swamp, ou seja, “Pântano de Dados”, pois devido a sua alta velocidade de dados processados é inviável qualquer tipo de tratamento quando são gerados. Este tipo de ação poderia levar a perda de informações importantes dos dados, ou até mesmo ao concluir qualquer tipo de análise com os dados colhidos, ao fim do processo de ETL (Extração, Transformação e Carregamento) a análise gerada já estaria defasada já que o recebimento de dados é constante e os insights obtidos durante a análise não seriam condizentes com a realidade. No Data Lake os schemas são definidos durante ou após o armazenamento dos dados, mas nunca deverá ser executada antes do processo em questão. Como o foco do Data Lake é armazenar dados que não possuem dados de forma estruturada é feito uso dos Bancos de Dados Não Relacionais (NoSQL), existem diversos tipos de banco de dados, mas os principais são: Key-Value (Chave-Valor), Graph DB (Banco de Dados Orientados a Grafos), Family Column (Família de Coluna) e Document (Documentos). Data Store: O conceito de Data Store é muito interessante, pois ele lhe permite criar um armazenamento de dados específicos, ou seja, é bem diferente de um Data Warehouse, onde é necessário realizar estruturação de dados em forma tabular e schemas, ou do Data Lake onde são armazenados todos os dados sejam eles semi-estruturados ou não estruturados sendo realizado o processo de transformação dos dados posteriormente. O armazenamento do Data Store por sua vez, lhe proporciona criar um repositório de armazenamento de dados estruturados, semi-estruturados ou não estruturados e gerenciar através de índices e sem a necessidade de armazenar tudo, coletando apenas as informações necessárias para cada aplicação. Para esse tipo de aplicação temos alguns tipos de aplicações que podem ser utilizadas, como por exemplo: Armazenamento de chave-valor (Redis, Memcached); Motor de pesquisa de texto completo (Elastic Search); Fila de mensagens (Apache Kafka); Sistema de arquivos distribuídos (Hadoop HDFS, AWS S3) Benefícios dos Conceitos: DW, DL e DS Data Warehouse: Como vimos anteriormente o DW tem como premissa realizar o armazenamento de diversas fontes de dados e com isso centralizará todas as informações necessárias em um único local, consequentemente esses dados carregados de forma consolidada são processados de forma rápida, com a realização do ETL (Extração, Transformação e Carregamento). Os dados que forem carregados ao DW ficam prontos e disponíveis para uso das áreas interessadas para realização de análises de forma visual podendo gerar dados a nível histórico ou até mesmo criações de predição para prospectar ações futuras. Data Lake: Envio direto dos dados em seu formato bruto para armazenamento, não que essa seja uma regra padrão, existe a possibilidade de fazer transformações antes de enviar caso você conheça os seus dados, a fim de otimizar e economizar armazenamento de dados desnecessários. Porém, em sua grande maioria os dados são enviados de forma original e depois tratados, com a importação em tempo real e de diversas fontes diferentes, você economiza tempo com definições de estruturas, schemas e transformações. Hoje uma das características do conceito Data Lake é a possibilidade de diversos setores/profissionais, terem a possibilidade de trabalhar com a mesma base de dados, e cada um utilizando assim sua própria ferramenta para a execução da tarefa, garantindo assim confiabilidade e veracidade dos dados e tudo isso pode ser feito diretamente no Data Lake, para otimizar o desempenho quando os dados já tratados e transformados forem consumidos pelos stakeholders e tomadores de decisão. Data Store: Como vimos anteriormente, o Data Store é algo que lhe proporciona muita flexibilidade, e é algo que se mostra como uma ótima solução para situações especificas onde um Data Warehouse, ou um Data Lake não consegue ser tão viável e rentável. Sendo assim, vale analisar o seu case e aplicação final para entender o que pretende ser entregue e qual tipo de necessidade em que cada conceito melhor se aplica. Para dados do tipo semi-estruturados muitas vezes é necessário ser mantido em seu formato original, e nesta ocasião o Data Store também se faz presente. E por fim, saber identificar o tipo de necessidade também leva você à economizar durante execução da atividade, ou seja, tentar forçar o uso de uma aplicação em algo que não foi feito para tal finalidade, pode lhe acarretar problemas futuros como baixa performance ou dificuldade em manutenções caso seja necessário. Conclusão Por fim podemos concluir que com o grande volume de dados e a velocidade em que são gerados e processados, um único tipo de solução não será suficiente para dar conta de toda demanda que surgir no dia a dia de uma empresa. Desempenhar atividades apenas com Data Warehouse realizando transformações e schemas, Data Lake para armazenamento de dados brutos e tratamentos posteriores ou Data Stores com casos específicos para determinada atividade não lhe garante sucesso, mas causará dificuldades. Por isso as empresas já estão utilizando os chamados Sistemas Híbridos de Armazenamento, montando assim uma grande estrutura de armazenamento de dados, conhecida também como Data Hub, trabalhando com o maior número de opções de conceitos para que assim um auxilie na performance do outro e no fim gere melhores resultados. O que achou deste conteúdo? Já conhecia esses sistemas de armazenamento? Comenta aqui se a gente deixou passar algum que você queira entender melhor, e compartilha com aquele amigo que vive com o armazenamento cheio! 💙🤣
- O que é Data Science?
No artigo de hoje, o dataholic Rodrigo Santana vai apresentar de forma clara e concisa uma das profissões que mais estão em alta no momento. Se você é, deseja ser ou conhece algum cientista de dados, chegou a hora de conhecer melhor esse ramo. Boa leitura! Vemos diversos tipos de definições para esta profissão, a qual já recebeu até o título de “profissão mais sexy do século XXI” há 10 anos atrás, pela Harvard Business Review. Porém, ainda nos dias de hoje, vemos diversos tipos de definições quando é feita a seguinte pergunta: O que é Data Science? Certa vez encontrei uma definição, que mesmo sendo breve, acabou sendo objetiva o bastante para responder essa questão: “Cientistas de dados fazem observações, verificações, medições, análises e classificações, procurando entender os fatos e traduzi-los para uma linguagem estatística.” A partir dessa pequena frase podemos tirar algumas informações como: A importância do conhecimento da área do projeto para traduzi-la e assim gerar perguntas assertivas para a tomada de decisão; Perfil observador e curioso, pois será necessário realizar pesquisas e buscas constantes para adaptar seus trabalhos e torná-los robustos ao decorrer da criação de suas análises; Conhecimento estatístico, matemático e computacional para transformar suas perguntas iniciais em respostas através de seus algoritmos e modelos gerados. Em literaturas que abordam o conteúdo sobre Data Science, os três pilares que abordam esses pontos levantados são: - Ciência da Computação; - Matemática e Estatística; - Inteligência de Negócio. A junção desses três pilares nos levará a outros três campos de estudos, sendo eles: Artificial Intelligence: Técnica que permite que um computador possa pensar por si só, e agir de forma igual ou similar ao comportamento humano. Machine Learning: Podemos considerar como uma subárea da Inteligência Artificial, já que é neste estágio que as máquinas são treinadas através de métodos estatísticos e aprendem com a experiência dos testes dos modelos gerados. Deep Learning: E temos o Deep Learning, que é uma subárea do Machine Learning que faz uso de multicamadas de redes neurais com grandes volumes de dados para o treinamento do modelo. E para caminharmos para o fim deste breve artigo, gostaria de falar um pouco sobre Machine Learning, também conhecido como Aprendizado de Máquina. Machine Learning São divididos em três setores: Supervisionado, Não Supervisionado e Por Reforço. Aprendizado Supervisionado: Supervisionado: Conjunto grande de dados que faz uso dos algoritmos para treino através de dados rotulados e identificados, para assim predizer os próximos valores; Aprendizado Não Supervisionado: Não Supervisionado: Conjunto grande de dados, porém, sem rótulos e não identificados, assim os algoritmos devem aprender e diferenciar por si só, para buscar montar grupos e padronizações entre os dados levantados; Por Reforço: Por Reforço: Poucos dados ou nenhum, na base de tentativa e erro, muito utilizado em robótica por exemplo e em ambientes controlados, buscando evoluir gradativamente a cada teste executado. Para a realização dos aprendizados são utilizados procedimentos que levam a uma conclusão: Algoritmo e Modelo Algoritmos: São os passos/procedimentos realizados com início, meio e fim, com objetivo de obter um resultado. Modelo: Podemos apontar como o resultado obtido do Algoritmo, ou seja, após o “treino” realizado, o modelo é gerado. Uma das boas práticas para realizar esse treinamento do algoritmo/modelo é separar o dataset em duas bases, sendo elas Treino e Teste, e assim sempre que precisar verificar novos valores inseridos nas features, teremos valores mais precisos e próximos da realidade. Exemplo: Dataset Treino 80% ... 70% Dataset Teste 20% ... 30% O que são Features? Podemos apontar as Features como as variáveis dentro do seu dataset, como por exemplo as colunas de uma tabela, cada informação se torna uma Feature para que você utilize dentro do seu algoritmo e gere análises para montar o seu modelo. É possível realizar análises com uma, duas ou quantas mais Features desejar. Porém, existem cuidados importantes para cada situação a ser aplicada, como quando há um grande volume de Features analisadas, que pode levar um tempo maior para treino do modelo. Viés e Variância O Viés, conforme for treinado o modelo, ao aumentar a sua complexidade irá apresentar melhores índices, mas com grandes chances de cair no Overfitting, que seria um sobreajuste onde o modelo se adapta de forma muito eficiente, levando a memorização dos dados do Dataset no ambiente de Treino. Mesmo assim, quando fosse implementado no ambiente de Teste, o desempenho não seria o desejado. A Variância, por sua vez, é a métrica que pode ser utilizada para ver como o modelo se comporta em diferentes Datasets, a fim de encontrar o meio termo. Sendo ele um ajuste para os treinos executados e o ponto de equilíbrio para assim usar o modelo nos Datasets de Treino e Teste para garantir sua performance. Avaliação do Modelo Como mencionado anteriormente, após a realização do algoritmo é preciso aplicar o modelo gerado em Treino para verificar o desempenho em Teste. Porém não existe uma fórmula mágica para esta avaliação do modelo, então o melhor a ser feito é fazer uso das boas práticas a serem adotadas, para assim verificar como seu modelo irá se comportar até chegarmos no modelo final para implementação, vamos ver abaixo algumas possíveis opções: - Ajustes de parâmetros no algoritmo aplicado, desse modo gerando diversos modelos com um mesmo algoritmo; - Anotações das aplicabilidades realizadas, metodologia e parâmetros empregados para conseguir discernir os resultados obtidos e saber qual teve melhor desempenho; - Verificar quanto de acurácia o modelo obteve ao fim do modelo, levando em consideração se todas as features analisadas obtiveram retornos positivos para todas as variáveis aplicadas; - Teste com novos conjuntos de dados por meio de amostragem, para verificação de desempenho do modelo, validando assim sua performance; - Validação Cruzada, é uma prática similar à da amostragem, porém é feita a coleta de informações de forma cruzada entre os 80% - 20% e/ou 70% - 30%, que inicialmente foram separados para Treino e Teste, e posteriormente pegar outros pontos desse menor valor para rodar novamente o modelo, e ao fim tirar uma média de desempenho de todos os testes realizados para aferir a performance do modelo. Conclusão Por fim, o objetivo final deste artigo foi apresentar de forma breve e resumida a profissão Data Science que ainda gera dúvidas sobre: o que é e o que faz. Trazendo então alguns dos processos utilizados dentro do Machine Learning, que como foi citado, é apenas uma das vertentes dentro deste universo. O conhecimento da regra de negócio e a área de atuação de acordo com o projeto, é importante para conseguir realizar uma boa leitura dos dados e prepará-los de forma a gerar informação ao fim de toda execução do projeto. Assim, minimizamos o retrabalho por falta de informação que outrora acabou por ser ignorada ou não identificada na etapa de preparação ou pré-processamento dos dados, aplicando então boas práticas durante todas as etapas do processo de Machine Learning. Espero que o conteúdo até aqui tenha sido proveitoso e você possa ter esclarecido algumas dúvidas sobre o tema. Se você curtiu o conteúdo, compartilhe com quem mais possa se interessar pelo o assunto, siga nossas redes sociais e fique por dentro das novidades que a Dataside traz diariamente, para toda a comunidade.💙✔️
- Entenda o que é, e como fazer uma boa Governança de dados
Se você está a par do que é análise de dados e como esse processo é feito, provavelmente sabe, ou tem ideia da quantidade de dados possível de ser obtida durante o processo. Dito isso, neste artigo te ajudaremos a entender como a Governança de dados se encaixa nesse meio. Se você já deu, ou sabe qual é o primeiro passo para tornar sua empresa uma das que se orientam por dados, é crucial que você entenda a importância da governança de dados. Após o processo de recolhimento dos dados, é necessária alguma categorização e organização para que essas informações façam sentido e sejam capazes de gerar insights, que mais tarde se tornarão pontos essenciais a serem considerados na tomada de decisão. Ou seja, é um processo quase arquivístico, onde serão organizadas informações que precisam ser divididas entre as que têm ou não valor para o que precisa ser pensado e decidido no momento, enquanto outros dados continuam sendo produzidos. Não ter uma boa governança de dados é uma sentença para a desorganização e a má estruturação dos seus dados, logo dar utilidade prática a eles se tornará um desafio, visto que o primeiro passo para sua utilização é encontrá-los de maneira rápida e tê-los em uma estrutura eficiente. Estruturação dos dados A primeira etapa para uma boa governança de dados consiste na escolha da plataforma na qual eles serão acumulados, separados e categorizados, ou seja, um ambiente big data de armazenamento. É aqui que fará diferença sua escolha entre um ambiente data lake, data warehouse ou um data lakehouse, sendo este último um dos mais completos e eficientes atualmente. A diferença entre esses ambientes está nos detalhes da arquitetura dos dados, e sua funcionalidade pode variar de acordo com a necessidade da empresa. Tratando-se de uma empresa que precisa lidar com uma quantidade exponencial e constante de dados por exemplo, o melhor seria um ambiente data lake, mas para dados que são passíveis de atualizações e reestruturação o mais adequado seria um ambiente lakehouse. Aplicação prática através do modelo 5W2H Neste momento, você pode estar se perguntando como deve aplicar a governança em sua empresa. Um modelo de organização muito considerado e bem-visto entre os gestores é o 5W2H, feito para classificar e esclarecer todo processo e desenrolar de uma atividade a ser executada, que foi gerada a partir da percepção de um problema. Esse processo baseia-se na resposta de 7 perguntas fundamentais para a aplicação prática do seu planejamento estratégico. Através de uma tabela ou planilha, a atividade será explicitada para a aprovação minuciosa das pessoas responsáveis por isso. Nele você pode destacar todos os detalhes a serem pensados e por quem eles devem ser executados. Essa é uma das melhores ferramentas para um gestor que queira manter organizados e práticos cada um de seus processos e quer dar o primeiro passo em direção ao gerenciamento de dados. Ter esse tipo de planejamento estratégico guiado pelos dados torna os processos mais bem explicados e passiveis ao entendimento geral para ações mais eficientes, além de tornar a tomada de decisão algo simples e ágil. A governança constrói a base Um bom processo de governança constrói bases solidas para a empresa, e torna os procedimentos da orientação a dados mais dinâmicos, consequentemente tornando a atuação estratégica e a tomada de decisão algo mais inteligente, certeiro e eficaz. Isso sem mencionar que esse processo também pode ser automatizado, o que faz com que seja ainda mais direcionado e efetivo, tornando o trabalho dos técnicos mais proveitoso e lucrativo para a empresa. Não ter governança é como tentar procurar um objeto perdido em um quarto bagunçado, você levará o dobro ou até o triplo do tempo para achar, e gastará energia e tempo desnecessários que poderiam ser melhor aplicados em outra função para otimizar o processo. E então, partiu dar aquela faxina no ambiente dos dados? Deixe um comentário com uma dúvida ou sugestão de mais conteúdos que podemos produzir, e compartilhe com aquele amigo que precisa reorganizar os ambientes!
- Automatizando a Identificação de problemas de relacionamento no Power BI
Hoje o dataholic Rafael Barbosa vai te ajudar a entender de vez porque você tem valores “blank” no filtro do seu Dashboard no Power BI, usando advancend script no Tabular Editor. Boa leitura! Problemas de relacionamento geram linhas em branco, isso acontece quando sua tabela fato possui registros que não existem na tabela de dimensão. O Power BI cria uma linha em branco e relaciona esses itens não entrados. Esse tipo de problema afeta na exibição dos dados e no desempenho do seu relatório como vocês pode ver no artigo do PHIL SEAMARK em Clean data = faster reports. Então para resolver precisamos saber quais itens faltam na dimensão, para então adicioná-los. No entando, se você tiver 10 relacionamentos no seu modelo, será uma tarefa demorada, mas podemos utilizar o Tabular Editor para automatizar essa tarefa de forma simples. Para isso vou utilizar o Advanced Script do Tabular Editor. Para montar essa solução eu peguei o script do Blog Elegant BI e incrementei um pouco mais o script que ele compartilhou, criando duas versões, mas antes vou ensinar como utilizar o Advanced Script do Tabular Editor. Como rodar o script no Tabular Editor 1. Baixar e instalar o Tabular Editor. 2. Depois de instalado ele vai aparecer dentro do Power BI na aba “Ferramentas Externas”, ao clicar neste botão será aberto o Tabular Editor conectado no relatório atual. 3. Copie e cole o script dentro de Advanced Script. 4. Salve o script, para poder utilizar novamente depois. 4.1 Clique no botão “+”. 4.2 Informe o nome, você pode utilizar “\” barra para criar pastas para facilitar quando for chamar o script. 4.3 Escolha o contexto em que deve aparecer essa opção (neste caso marquei na opção “Model”). 4.4 Clique em OK. 6. Execute o Script clicando no play ou apertando F5. 7. Depois de salvo quando você precisar chamar o script novamente você pode acessar: 7.1 (Opção 1) - Clicando com o botão direito em cima do contexto escolhido, neste caso foi marcado “model” no item 5. 7.1 (Opção 2) Clicando em Samples. Agora que você sabe como faz para executar o script, deu para ver que depois de configurar, a próxima vez será somente abrir o Tabular Editor e fazer o item 7. Versão 1 - Encontrar linhas em branco resumo O 1° Script é a versão resumida, ele tem o objetivo de trazer e identificar quais tabelas que estão com problema de relacionamento e identificar as colunas responsáveis. Depois que você executar o script abaixo, ele vai retornar a essa janela com a relação dos problemas listados, só vai precisar clicar em “Copy to Clipboard”. Depois é só colar em uma planilha do Excel, para ver o resultado como mostrado abaixo: FromTable: Tabela que está sendo filtrada no relacionamento (tabela fato) ToTable: Tabela que está filtrando no relacionamento (tabela dimensão) BlankRowCount: Quantidade de linhas que a “FromTable” não entrou relacionamento direto com “ToTable” FromTableColumn: Coluna de relacionamento da “FromTable” ToTableColumn: Coluna de relacionamento da “ToTable” DAX_Table: Medida DAX para criar uma tabela com a lista de itens que faltam na tabela dimensão para resolver o problema de relacionamento. Encontrar linhas em branco resumo foreach (var rin Model.Relationships.ToList()) { bool act = r.IsActive; string fromTable = r.FromTable.Name; string toTable = r.ToTable.Name; string fromTableFull = r.FromTable.DaxObjectFullName; string fromObject = r.FromColumn.DaxObjectFullName; string toObject = r.ToColumn.DaxObjectFullName; string dax; string DAX_Table; if (act) { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; } else { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; } var daxResult = EvaluateDax(DAX_Table); string blankRowCount = EvaluateDax(dax).ToString(); if (blankRowCount !="Table" ) { daxResult.Output(); } } Depois de executar é só copiar e colar no Excel: Versão 2 - Encontrar linhas em branco detalhado Quando você roda o script anterior e segue para encontrar problemas de relacionamento no seu modelo, sucederá a próxima pergunta: Quais itens eu preciso adicionar na minha tabela de dimensão, para resolver esse problema de relacionamento? Ao rodar o próximo script, retornará a 1° coluna a relação de itens que precisam ser adicionados na coluna da tabela dimensão “D_municipios[Municipio.id]”, e a na 2° coluna a quantidade de linhas que a tabela fato possui de cada item. Como no exemplo anterior você pode copiar o resultado e colar no Excel. 1° Problema de relacionamento Ao clicar em “Close” (Fechar) o Tabular Editor vai retornar à relação do próximo problema de relacionamento. 2° Problema de relacionamento: 3° Problema de Relacionamento: Neste caso podemos ver que na tabela fato (Vacinação) possui 8 linhas em branco na coluna [paciente_racacor_codigo], neste caso o problema está na tabela fato que não está trazendo o código para essas 8 linhas. Encontrar linhas em branco detalhado //var sb =new System.Text.StringBuilder(); //string newline = Environment.NewLine; foreach (var rin Model.Relationships.ToList()) { bool act = r.IsActive; string fromTable = r.FromTable.Name; string toTable = r.ToTable.Name; string fromTableFull = r.FromTable.DaxObjectFullName; string fromObject = r.FromColumn.DaxObjectFullName; string toObject = r.ToColumn.DaxObjectFullName; string dax; string DAX_Table; if (act) { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; } else { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; } var daxResult = EvaluateDax(DAX_Table); string blankRowCount = EvaluateDax(dax).ToString(); if (blankRowCount !="Table" ) { daxResult.Output(); } } O que achou deste conteúdo? Nos conte nos comentários e deixe sua curtida para apoiar nossa produção. Compartilhe com os amigos!💙⚙️
- Entenda o conceito Data thinking e Design thinking
No artigo de hoje, o dataholic Gilson Castro vai te ajudar a entender de uma vez o que é data thinking e sua aplicação prática, e como bônus a dataholic Letícia Carvalho trouxe o conceito de design thinking. Boa leitura! O que é Data Thinking? O conceito de data thinking é definido como uma interseção do design thinking e data Science, é considerada uma abordagem holística que almeja construir e explorar o potencial de dados dentro de uma empresa. Desse modo, o Data Thinking aplica métodos de design thinking para identificar as necessidades do cliente, e maneiras criativas de encontrar novas soluções para enfrentar os desafios através da orientação por dados. Benefícios do Data Thinking: Um dos principais benefícios do Data Thinking é tornar sua estratégia de dados centrada no usuário, assim a combinação de design e dados gera mais insights profundos com a informação adquirida. Portanto, o desenvolvimento de produtos de dados passa por uma descoberta das necessidades dos usuários finais. Suas aplicações podem ser em pesquisa de perfil de usuários, análise qualitativa, testes de desempenho etc dessa forma, é preciso desenvolver um conjunto de estratégias criativas que criam novos produtos e serviços com uma visão mais detalhada dos dados em cada etapa do projeto. Vale destacar que a colaboração de equipes multidisciplinares é crucial para o sucesso de produtos de dados. Dessa forma, o Data Thinking ajuda humanizar o desenho de um produto de dados, afinal devemos colocar sempre o ser humano em primeiro lugar. A empatia com usuário é a chave para construir soluções de impacto e inclusivas através da inteligência artificial desse modo, se fazem necessários brainstormings, prototipagens e testes. O que é Design Thinking? É um método para estimular ideação e perspicácia ao abordar problemas relacionados a propostas de soluções. De forma mais clara, é utilizado para criação de projetos e desenvolvimento de produtos, que usa como base o pensamento dos designers. Essa forma de pensar pode ser entendida como o processo de resolução de problemas que leva em conta o ser humano e utiliza princípios de multidisciplinaridade, colaboração e estruturação de ideias e processos. O sucesso do Design Thinking se deve ao fato da abordagem combinar 3 elementos fundamentais para qualquer projeto: A sensibilidade presente no universo do design As ferramentas, estratégias e métodos para atender as pessoas A tecnologia disponível para solucionar um problema. Se olharmos para o mundo dos negócios, esses 3 elementos são indispensáveis para que projetos, soluções e empresas sejam criados para realmente atender alguma demanda da sociedade, de uma forma prática e acessível. Etapas do Design Thinking: Viu como ficou simples de entender? Agora curte e comenta o que mais você quer que a gente deixe simples de entender. E não esquece de compartilhar para desmistificar esse assunto de vez!💙✔ Referência: https://insights.liga.ventures/inovacao/inovacao-aberta/
- Melhores Práticas com Tabular Editor
Hoje o dataholic Rafael Barbosa vai nos contar sobre um jeito simples de obter um relatório de todas as melhorias que você realiza ao usar o Tabular Editor. Boa Leitura! Além de ter um relatório com ótima apresentação dos dados, um ponto muito importante é levar em consideração as boas práticas para melhoria de performance e manutenção do relatório. Para isso podemos utilizar o Tabular Editor para ajudar a identificar esses pontos que podem ser melhorados. Siga o passo a passo: 1° - Instale o Tabular Editor, logo após a instalação ele irá aparecer no seu Power BI na guia Ferramentas Externas (External Tools), use as ferramentas sem moderação!!! 2° - Agora vamos abrir o Tabular Editor e inserir o código abaixo em Advanced Scripting; para baixar as regras de boas práticas clique em Run Script ou aperte F5. System.Net.WebClient w = new System.Net.WebClient(); string path = System.Environment.GetFolderPath(System.Environment.SpecialFolder.LocalApplicationData); string url = "https://raw.githubusercontent.com/microsoft/Analysis-Services/master/BestPracticeRules/BPARules.json"; string version = System.Windows.Forms.Application.ProductVersion.Substring(0,1); string downloadLoc = path+@"\TabularEditor\BPARules.json"; if (version == "3") { downloadLoc = path+@"\TabularEditor3\BPARules.json"; } 3° - Feche o Tabular Editor e abra novamente para que as alterações sejam aplicadas. 4° Agora quando você abrir o Tabular Editor, ele mostrará a quantidade de problemas encontrados (😮238 problemas), é só clicar no aviso abaixo para ver quais são esses problemas. Lembrando que são somente sugestões de melhorias, quem defini o que deve ser alterado é você. 5° - As sugestões vêm divididas por categoria, tem até dica de melhoria de performance. Alguns itens são possíveis de serem corrigidos de forma automática clicando no botão de corrigir como no exemplo abaixo, mas outros, como trocar o modelo de snowflake para start-schema, devem ser feitos manualmente. O que achou? Ótimo para quando você precisa mostrar as melhorias que foram implementadas em algum modelo não é? Dessa forma você tem um relatório do antes e do depois de forma simples. Agora compartilha essa dica com mais colegas e comenta aqui quais dicas você quer por aqui!💙 Fonte: Blog Power BI https://powerbi.microsoft.com/en-us/blog/best-practice-rules-to-improve-your-models-performance/ Mais informações na documentação do Tabular Editor https://docs.tabulareditor.com/Best-Practice-Analyzer.html
- Filtrando Power BI Pela URL
O dataholic Rafael Barbosa, vai nos contar um pouco sobre a criação de filtros no Power BI. Vem ver como é fácil! Sabia que é possível criar filtros no Power BI com a URL? Funciona até mesmo em relatórios públicos, com isso é possível enviar o link do relatório já filtrado para o usuário ou utilizar links dinâmicos para direcionar para visão mais adequada para ele. {link do relatório}: Filtro Unico: {link do relatório}?filter=Tabela/Coluna eq'valor para filtrar' Lógica OU: {link do relatório}?filter=Tabela/Coluna in ('Valor1', 'Valor2') Lógica AND: {link do relatório}?filter=Tabela/Coluna eq'Valor1' and Tabela/Coluna eq'Valor2' Agora que sabemos como montar a URL, vamos criar um link dinâmico utilizando DAX. Lembrando que quando utilizamos o operador IN temos essa estrutura ('valor1','valor2', ...), agora para concatenar os itens selecionados separados por ',' será necessário utilizar o CONCATENATEX. Medida= VAR LINK = "" VAR PRE_FILTRO = "?filter=Tabela/Coluna1 in ('" VAR FILTRO1 = CONCATENATEX( DISTINCT(Tabela[Coluna1]), CALCULATE(MAX(Tabela[Coluna1])), "','" ) RETURN LINK & PRE_FILTRO & FILTRO1 & "')" Um exemplo de aplicação é inserir esse link em um botão para abrir outro relatório com filtros selecionados desse relatório que você está. E para link embedado do Power BI também é possível: Abra o relatório do serviço Power BI em seu navegador da web e copie o URL da barra de endereço. Adicione o pageName no final da URL do link embedado do Power BI, para escolher qual página que deve ser iniciada: Adicione os filtros, com a mesma lógica do exemplo anterior: (filtros de url não funcionam em link públicos) Pronto! Agora ficou fácil né? Curte, comenta e compartilha esse conteúdo para mais gente ficar sabendo.💙😍 Fontes: Fórmula CONCATENATEX: https://dax.guide/concatenatex/ Filtrando pelo link: https://docs.microsoft.com/pt-br/power-bi/collaborate-share/service-url-filters Filtrando pelo link conteúdo embedado: https://powerbi.microsoft.com/pt-br/blog/easily-embed-secure-power-bi-reports-in-your-internal-portals-or-websites/
- Entenda a importância da mineração de dados para sua empresa
O dataholic Gilson Castro, vai contar mais sobre o processo de mineração de dados, e deixar clara a necessidade de implementação do processo na empresa. Boa leitura! A mineração de dados (Data mining) pode ser definida como uma combinação de banco de dados e tecnologias de inteligência artificial. Este, é um campo emergente que absorveu um grande impulso nas últimas décadas, além de ser promissor dentro da análise de dados, já que permite encontrar relacionamentos e ligações significativos entre os dados. Pode ser ainda uma poderosa tecnologia afim de ajudar empresas na previsão de tendências e comportamentos futuros, permitindo que gestores tomem decisões proativas baseadas no conhecimento inteligente. Como obter valor Ao usarmos como exemplo uma rede de restaurantes, podemos supor que lojas comerciais poderiam minerar dados de compra dos clientes desses restaurantes para determinar quando os clientes visitam, e o que eles normalmente ordenam. Esta informação poderia ser usada para aumentar o tráfego nos especiais do dia, identificar segmentos de mercado ou afinidades de consumo dos consumidores. Até agora falamos de definição e exemplos, mas a usabilidade de data mining é diversa, principalmente em empresas que desejam focar no consumidor. Sabemos que hoje esse processo é a joia preciosa do negócio, por isso aquele famoso ditado aqui, faz muito sentido: “Não fale seu preço antes do cliente entender o seu valor” e o que você pode fazer para obter valor? As empresas com data mining podem determinar as relações entre os fatores “internos” como preço, posicionamento do produto, ou competências do pessoal, e fatores “externos”, como indicadores econômicos, concorrência, dados demográficos de clientes (permitindo mensurar o impacto sobre as vendas), satisfação do cliente e os lucros da empresa. Se a base de dados da sua empresa estiver crescendo, já pode pensar em como tirar proveito do conhecimento subjacente do patrimônio digital, que vem sendo acumulado com o data mining. Nesse sentido, a dica é: você precisa fazer perguntas certas para manusear a mineração de dados, pois a ferramenta não trabalha sozinha! Faça sua parte também. Inclusive, você pode começar fazendo sua parte lendo mais sobre esse assunto, no nosso blog: A importância da tomada de decisão com análise de dados em tempo real; A Importância dos Dados para a tomada de decisão dos negócios. Se curte esse tema, acompanhe nosso blog e nossas redes sociais, para não perder os próximos conteúdos!💙💻
- Contando Duplicados com Power Query
No artigo de hoje, o dataholic Rafael Barbosa fez questão de deixar bem explicado o processo de acabar com as colunas duplicadas no Power Query. Vem conferir! Criar colunas dentro do Power Query é muito mais performático do que utilizar colunas calculadas quando possível, mesmo assim é mais fácil você encontrar uma solução na internet utilizando DAX em uma coluna calculada do que utilizando linguagem M no Power Query. Neste caso quero contar na coluna "Equipamento superior" a quantidade de códigos que existem na minha tabela para identificar valores duplicados e qual a quantidade. 1° - Etapa addCount, agrupa a coluna que você quer contar os itens duplicados com Table.Group e adiciona a coluna "Duplicado", que vai informar a quantidade de vezes que aquele item se repete na tabela. addCount = Table.Group( Etapa_Anterior, //Chama a etapa = Etapa_Anterior {"Equipamento superior"}, //Seleciona a coluna"Equipamento superior" {{"Duplicado", Table.RowCount, type number}} //Quantidade de duplicados ) 2° - Etapa Mesclar, agora vamos mesclar a tabela do passo anterior na nossa tabela. Como o nome das colunas utilizadas como chave na hora de mesclar tem o mesmo nome o JoinKind.Inner, traz somente as outras colunas eliminando uma etapa de expandir. Mesclar = Table.Join( Etapa_Anterior, //Chama a etapa = Etapa_Anterior {"Equipamento superior"}, //Seleciona a coluna"Equipamento superior" addCount, //Chama a etapa = addCount {"Equipamento superior"}, //Seleciona a coluna"Equipamento superior" JoinKind.Inner //Mesclagem do tipo InnerJoin ) Ou podemos juntar tudo na mesma etapa de duas formas: Mesclar = Table.Join( Etapa_Anterior, {"Equipamento superior"}, Table.Group( Etapa_Anterior, {"Equipamento superior"}, {{"Duplicado", Table.RowCount, type number}} ), {"Equipamento superior"}, JoinKind.Inner ) O modo é utilizando o let in, comprando com DAX o let seria como o VAR e o in o RETURN, com isso podemos criar sub etapas dentro de uma etapa, assim fica mais fácil de entender o que foi feito, além de ser um bom modo de ocultar etapas auxiliares. Para baixar o exemplo do artigo clique aqui. let addCount = Table.Group( Etapa_Anterior, {"Equipamento superior"}, {{"Duplicado", Table.RowCount, type number}} ) in Table.Join( Etapa_Anterior, {"Equipamento superior"}, addCount, {"Equipamento superior"}, JoinKind.Inner ) Ou se quiser visualizar somente as linhas duplicadas pode utilizar a opção "Manter Duplicados" em Manter Linhas o Power Query vai filtrar somente as linhas duplicadas. Se esse passo a passo foi útil para você curta e nos diga como podemos ajudar em outras situações. Compartilhe com um amigo que também esteja precisando de uma ajudinha!💙😍
- A importância da tomada de decisão com análise de dados em tempo real
Você já pensou sobre a diferença que faz analisar os dados em tempo real e tomar uma decisão baseada nisso? Bom, alguns times de baseball já fazem isso, e tiveram resultados surpreendentemente positivos. Boa leitura! Se você é um cientista de dados, ou já faz uso de ferramentas de big data na sua empresa, sabe da importância de tomar decisões baseadas no que os dados mostram. Mas, já parou para pensar em quanto tempo levam algumas decisões, e o quanto esse tempo pode custar? Pare para pensar então, nas tendências do mercado, que são voláteis e podem mudar o tempo todo. É fácil entender que precisaríamos de um suporte bem mais rápido e expansivo para aguentar grandes quantidades de dados que chegam a todo momento, e consequentemente profissionais capazes de analisar e dissolver as informações desses dados mais rapidamente. Só então, nossas decisões acompanharão em tempo real as sutis mudanças no mundo corporativo para alcançar os melhores resultados. Está pensando se o seu negócio se encaixa nessa necessidade? Bom, talvez alguns exemplos ajudem a compreender melhor os benefícios de tomar uma atitude assim. O auxílio do Statcast para a tomada de decisão ágil Entraremos agora no mundo do baseball, mesmo não estando familiarizado com o ambiente em questão, subentende-se que como em qualquer outro esporte, o baseball baseia-se também em decisões rápidas que poderão definir o curso do jogo a qualquer momento. Então como a análise de dados pode ajudar? A partir deste ponto o statcast entra em cena, trata-se neste caso, do posicionamento de câmeras ao redor de todo o campo, a fim de coletar imagens de tudo o que acontece durante o jogo. Todas as informações serão consumidas por analistas em tempo real, que durante a partida atualizarão os técnicos e jogadores sobre as melhores estratégias a serem seguidas. Tudo isso, tornou-se realidade durante os jogos de 20 temporadas da Major League Baseball (MLB), onde a efetividade dos dados ficou provada e exemplificada. As análises fornecidas enquanto o jogo se desenrola podem gerar insights poderosos à equipe técnica e aos jogadores, tendo a capacidade de dizer se vale a pena uma substituição em prol de impedir uma lesão, ou se um arremesso pode ter sua trajetória alterada em benefício do time, e é claro, muitas outras possibilidades imagináveis. Aplicação prática e databricks É possível perceber agora como ferramentas que estão a favor e além dos dados são necessárias para elevar o nível de assertividade das decisões. Mas se ainda estiver subjetivo, podemos clarear um pouco mais. Pense no comércio online, e em como as informações podem chegar diariamente. Neste exemplo, você precisa decidir imediatamente sobre a próxima campanha que lançará para promover um produto, mas as informações sobre os acessos e compras não param de chegar, elas se atualizam e se renovam em quantidade e velocidade surpreendentes. Dessa forma, não somente o profissional deve ser rápido o suficiente para acompanhar os dados, mas ele deve usar também a ferramenta ideal para esse serviço. Estamos falando aqui, sobre uma plataforma lake house, que oferece todo o suporte necessário para tal feito, ou seja, que aceita dados não estruturados e permite atualizações em tempo real, entre outras características. Você pode ler mais sobre isso no artigo sobre o Databricks, que é uma plataforma lake house. Se já está fazendo as contas do quão benéfico pode ser esse investimento, com certeza deve estar interessado em mais meios de fazer seus negócios assumirem proporções maiores. Não perca tempo, acesse nossos conteúdos para saber sobre mais inovações! Curta, comente e compartilhe.💙💻












