top of page

Resultados de busca

262 resultados encontrados com uma busca vazia

  • O que é OCR? Quais os benefícios?

    Você provavelmente está precisando, ou pode fazer bom uso da implementação da tecnologia OCR e ainda não sabe. Vem conferir tudo sobre essa tecnologia! Optical Character Recognition, o OCR Apesar de estar no mercado há algum tempo, o reconhecimento óptico de símbolos vem se consolidando ainda mais graças ao avanço da Inteligência Artificial e adjacências – como machine learning e deep learning – já que ambas tornam seu funcionamento mais potente e preciso. Para quem quer ir além, o OCR é uma base incrível para estratégias inovadoras. A tecnologia pode ser muito útil para resolver alguns problemas simples, mas que custam tempo e dinheiro para empresas que ainda não conhecem o processo. O que é OCR? Trata-se do reconhecimento de texto em imagens e sua conversão digitalizada. Ou seja, se você possui uma foto, PDF ou até mesmo algo manuscrito é possível digitalizar as informações em formato textual através do reconhecimento óptico de símbolos. Essa é a principal base de funcionamento da tecnologia OCR, ela também é capaz de converter o texto recolhido em dados inteligíveis pela máquina e analisá-los fazendo comparações com o banco de dados interno. A partir dessa funcionalidade podemos pensar em algumas aplicações vantajosas para o OCR, certo? Só precisamos partir do pressuposto de que através de um rápido escaneamento digital – através de um celular ou impressora – uma máquina pode converter imagens em texto, documentos em informações analisáveis e comparativas e exibir resultados em segundos. Como o OCR é aplicado? Esse artifício pode ser útil para diversos setores do mercado e pode ser usado de maneira simples (utilizando qualquer dispositivo capaz de captar imagens), sendo adaptado para segmentos como: Segurança Verificação de identidade ou dados Armazenamento de arquivos Estoque Cadastramento (pessoas, objetos e etc) Pagamento Repasse de informações Digitalização de documentos Busca de informações em banco de dados Vantagens da aplicação OCR Bem como opções para utilizar esse tipo de processo, as vantagens também se aglomeram para quem opta por utilizar OCR. A verdade é que este processo se trata de uma automação de um serviço antes executado por pessoas com outras funções a se preocupar, e faz parte da transição digital de muitas empresas que acompanham o que a indústria 4.0 tem a oferecer. A tecnologia OCR facilita e agiliza a busca por informações, além de poupar custos e ser sustentável ao extinguir a necessidade de manter documentos físicos empilhados em um arquivo. Processos de identificação e cadastro podem ser mais rápidos com um simples escaneamento do documento oficial e o reconhecimento digital das principais informações para cadastro. No setor varejista o ganho de tempo pode ser ainda mais vantajoso, o vendedor pode buscar através de um aparelho celular, qualquer variação de um produto solicitado no estoque, ou até mesmo buscar as informações de registro de um cliente. De maneira similar, o atendimento de saúde pode ser agilizado buscando ou cadastrando todas as informações de um paciente diretamente no banco de dados com visualização e alteração simples. OCR aplicada à Inteligência Artificial Caso você ainda esteja se perguntando sobre os feitos reais da tecnologia OCR, podemos explorar o case da Oncoclinicas, que oferece serviços médicos no Brasil desde 2010 e é especializada no diagnóstico e tratamento do câncer. A Onco tinha um problema: muitos pacientes de longa data com histórico de exames e tratamentos em diferentes formatos, o que atrasava o recolhimento de informações e consequentemente o diagnóstico, já o médico precisava ter todas as informações sobre o paciente para chegar à uma conclusão. A solução precisava ser eficiente e rápida, já que o mais crucial para um tratamento efetivo é a identificação precoce da doença. A Dataside pôs em prática a referenciada tecnologia OCR como base do projeto, e usou pela primeira vez no Brasil o API for health da Microsoft, ganhando reconhecimento internacional da própria empresa pela aplicação no case. Com a solução fundamentada na tecnologia OCR, os diferentes laudos médicos puderam ser digitalizados em texto inteligente e armazenados de forma estruturada em um banco de dados acessível para visualização e alteração, eliminando a necessidade de papéis e armazenamento físico. E com o adicional da tecnologia da Microsoft é possível ter um reconhecimento ainda mais preciso e específico, e até mesmo fazer perguntas ao banco de dados, como: “Quantas pessoas vieram aqui no mês passado e foram detectadas com câncer?” Agora, durante as consultas o médico tem acesso a todos os resultados e medicamentos prescritos à um paciente de forma digital e inteligente, ganhando agilidade em diagnósticos precisos e tratamentos mais específicos. Esse case é um exemplo real da utilização do OCR aplicado à Inteligência Artificial, e também um encorajamento para outras empresas que também precisam automatizar seus processos e ainda não sabiam por onde começar. Não perca tempo, entre em contato para saber como a Dataside pode ajudar você! 💙

  • O que é Deep Learning?

    No artigo de hoje, você vai se aprofundar ainda mais no que a inteligência artificial é capaz de oferecer. Se as técnicas de machine learning foram revolucionárias para a indústria da tecnologia o deep learning promete ainda mais avanços. O futuro da I.A Se você acompanha o blog da Dataside, provavelmente já entende os conceitos de I.A e machine learning (ML), logo seria simples passarmos a considerar o deep learning como uma subárea dentro de ML que se enquadra como uma subárea da I.A. No entanto, se tais conceitos ainda não são familiares podemos considera-los da seguinte forma: Inteligência artificial: A inteligência artificial surge a partir do estudo do funcionamento da mente humana, e sob a perspectiva mercadológica, como a vida pode ser facilitada pela iniciativa de máquinas previamente programadas para fazerem trabalhos repetitivos, simples e desgastantes. Machine learning: A primeira subárea da I.A, que consiste em técnicas de aprendizado, faz a máquina se torne capaz de aprender através da identificação de padrões, para imitar algum comportamento, ou executar com perfeição uma tarefa. A partir daqui, já podemos entender o DL como um avanço do que foi proposto anteriormente, tendo sucesso em novas áreas de exploração e estudo do funcionamento do cérebro humano e sua maneira de aprendizado. Deep Learning Como técnica que visa impulsionar a função de ML, o DL visa se aproximar ainda mais de nossa metodologia de aprendizado, suas camadas procuram agir efetivamente como um neurônio que recebe informações variadas em prol de identificá-las e produzir um resultado. Ele funciona através de um reconhecimento hierárquico dos elementos mais importantes para detectar e identificar do que se trata um objeto, ou a melhor resposta para uma determinada situação. As técnicas de DL são utilizadas para que um computador consiga aprender sozinho através do reconhecimento de elementos, que podem levá-los a previsões mais precisas e certeiras. O algoritmo do Youtube pode ser um exemplo disso, ou de outras redes sociais, que sempre tentam se aproximar o máximo possível da melhor recomendação para o usuário. Isso através de uma observação profunda e metódica do comportamento e periodicidade dos acessos do indivíduo. Graças às técnicas de DL é possível que os computadores e máquinas tenham resoluções cada vez mais complexas e analíticas sobre algo que somente um cérebro humano seria capaz de compreender, como um jogo de Xadrez por exemplo. Para além das partidas de Xadrez A premissa para o futuro dessa tecnologia é mais que realizar atividades simples e cotidianas, o deep learning pode trazer avanços significativos para diversas áreas, entre elas a medicina, que passa a ter a possibilidade de identificar pacientes com risco de câncer através de apenas algumas análises sanguíneas ou imagéticas. Não podemos deixar de pensar também no benefício que tais técnicas trarão para algoritmos de busca e de identificação dos gostos de usuários. Certamente, um prato cheio para empresários que sabem como lidar com as variações do público, e podem passar a saber de antemão qual a próxima tendência a dominar o mercado. As experiências que teremos com o deep learning sem dúvida se farão presentes para todos, principalmente para aqueles que tiverem essas técnicas a seu favor. Agora que você já sabe qual o próximo passo das máquinas, qual será o seu? Que tal aprofundar seu conhecimento do público e impulsionar as vendas com apenas alguns cliques? Faça agora sua consultoria! Leia também sobre maneiras de impulsionar seu negócio com a I.A!💙🔎

  • Sistemas e formas de armazenamento de dados

    O Big Data é conhecido generalizadamente por seus 4 V’s: Volume, Variedade, Velocidade e Veracidade, embora hoje existam muitas pessoas que abordam outros V’s dentro deste conceito. Neste artigo, o dataholic Rodrigo Santana vai abordar o seguinte tema: Sistemas de Armazenamento de Dados, o que consequentemente nos leva ao V de Volume, já que retrata a grande quantidade de informações que o mundo recebe diariamente. Continue lendo! Armazenando Grandes Volumes de Dados O Volume em Big Data é um dos fatores críticos e importantes a serem analisados dentro de uma empresa que deseja trabalhar de forma orientada a dados, e consequentemente com grandes volumes de dados, pois este em questão pode impactar diretamente os custos da empresa. Como armazenar grandes volumes de dados? Para essa pergunta já temos vários fatores a serem apontados, como o custo gerado devido ao armazenamento dos dados, storage, instalações elétricas tais como ar-condicionado e manutenção, e se porventura não optar por realizar toda infraestrutura de forma local, e partir para serviços em cloud, existem valores de cobranças dos serviços contratados. Acessando Grande Volume de Dados Como realizar o acesso a grandes conjuntos de dados armazenados? Realizar buscas dos dados armazenados de forma rápida, mas ao mesmo tempo de forma confiável, faz com que seja necessário o uso de recursos complementares. Esses recursos precisam ter controle de manipulação de forma assertiva para execução de cada tarefa, pois de nada adianta armazenar dados brutos se você não puder realizar posteriores análises e retirar insights, ou seja, obter o verdadeiro valor que estes dados possuem para facilitar a tomada de decisão. E o controle por traz deste armazenamento e busca do local de armazenamento, geram custos para que se mantenha seguro e eficiente. É Necessário Armazenar Todos os Dados? Não, afinal como foi citado acima, armazenamento gera custo. Não quer dizer que não possa realizar o armazenamento de tudo que for extraído das fontes de dados, mas tenha em mente que tudo que for armazenado será cobrado posteriormente. Leve em consideração a premissa para o uso dos seus dados, ou seja, entenda o seu negócio e a entrega de valor que o projeto levará ao fim do processo, com isso você conseguirá filtrar de forma mais assertiva os dados necessários para cada trabalho. Afinal, entre os 4 V’s está um que julgo de suma importância, o V de Valor. De nada adianta ter dados armazenados se não conseguir tratá-los e retirar informações necessárias para tomada de decisão mostrando assim seu verdadeiro Valor. Formas de Armazenamento no Big Data Mais uma vez caímos no ponto crucial, que por muitas vezes é negligenciado. Antes de definirmos a forma de armazenar, devemos considerar a regra de negócio, mas abaixo vamos tentar apontar um pouco da visão e possibilidades de armazenamento em Big Data. Data Warehouse: Esta é a forma mais conhecida, por proporcionar o armazenamento e conexão de diversas fontes de dados no processamento tipo batch, ou seja, um armazenamento feito em lotes/conjuntos que foram processados por um período, segue o padrão de dados em forma tabular e estruturada. Porém, hoje com o grande volume de dados, os Data Warehouse mais modernos já estão possibilitando o tipo de armazenamento de dados não estruturados, embora essa ainda não seja a melhor opção para esse tipo de dados. Os dados processados no tipo batch, definem seus schemas (esquemas) antes do armazenamento dos dados. Esse procedimento realiza conexões entre as tabelas e torna possível gerar conexões através de chaves primarias, chaves estrangeiras e índices através de um SGBD, como por exemplo um SQL Server. Todo esse procedimento realizado tem como objetivo auxiliar as áreas de negócio com informações para gerar relatórios e análises para tomada de decisão. Data Lake: O conceito a ser seguido para o Data Lake difere do Data Warehouse pela possibilidade de armazenamento com processamento do tipo batch, que é carregado após um período de dados armazenados/coletados, no Data Lake os arquivos são processados de forma rápida e dinâmica. Assim, são armazenados de forma crua, o qual recebe o nome de processamento do tipo: streaming. Porém, existem alguns cuidados a serem tomados durante o armazenamento, por exemplo, o processo de armazenamento deve ser realizado com cuidado no uso de mecanismos que garantam padrões onde os dados serão catalogados. Caso contrário, os dados podem se tornar lixo, ou Data Swamp, ou seja, “Pântano de Dados”, pois devido a sua alta velocidade de dados processados é inviável qualquer tipo de tratamento quando são gerados. Este tipo de ação poderia levar a perda de informações importantes dos dados, ou até mesmo ao concluir qualquer tipo de análise com os dados colhidos, ao fim do processo de ETL (Extração, Transformação e Carregamento) a análise gerada já estaria defasada já que o recebimento de dados é constante e os insights obtidos durante a análise não seriam condizentes com a realidade. No Data Lake os schemas são definidos durante ou após o armazenamento dos dados, mas nunca deverá ser executada antes do processo em questão. Como o foco do Data Lake é armazenar dados que não possuem dados de forma estruturada é feito uso dos Bancos de Dados Não Relacionais (NoSQL), existem diversos tipos de banco de dados, mas os principais são: Key-Value (Chave-Valor), Graph DB (Banco de Dados Orientados a Grafos), Family Column (Família de Coluna) e Document (Documentos). Data Store: O conceito de Data Store é muito interessante, pois ele lhe permite criar um armazenamento de dados específicos, ou seja, é bem diferente de um Data Warehouse, onde é necessário realizar estruturação de dados em forma tabular e schemas, ou do Data Lake onde são armazenados todos os dados sejam eles semi-estruturados ou não estruturados sendo realizado o processo de transformação dos dados posteriormente. O armazenamento do Data Store por sua vez, lhe proporciona criar um repositório de armazenamento de dados estruturados, semi-estruturados ou não estruturados e gerenciar através de índices e sem a necessidade de armazenar tudo, coletando apenas as informações necessárias para cada aplicação. Para esse tipo de aplicação temos alguns tipos de aplicações que podem ser utilizadas, como por exemplo: Armazenamento de chave-valor (Redis, Memcached); Motor de pesquisa de texto completo (Elastic Search); Fila de mensagens (Apache Kafka); Sistema de arquivos distribuídos (Hadoop HDFS, AWS S3) Benefícios dos Conceitos: DW, DL e DS Data Warehouse: Como vimos anteriormente o DW tem como premissa realizar o armazenamento de diversas fontes de dados e com isso centralizará todas as informações necessárias em um único local, consequentemente esses dados carregados de forma consolidada são processados de forma rápida, com a realização do ETL (Extração, Transformação e Carregamento). Os dados que forem carregados ao DW ficam prontos e disponíveis para uso das áreas interessadas para realização de análises de forma visual podendo gerar dados a nível histórico ou até mesmo criações de predição para prospectar ações futuras. Data Lake: Envio direto dos dados em seu formato bruto para armazenamento, não que essa seja uma regra padrão, existe a possibilidade de fazer transformações antes de enviar caso você conheça os seus dados, a fim de otimizar e economizar armazenamento de dados desnecessários. Porém, em sua grande maioria os dados são enviados de forma original e depois tratados, com a importação em tempo real e de diversas fontes diferentes, você economiza tempo com definições de estruturas, schemas e transformações. Hoje uma das características do conceito Data Lake é a possibilidade de diversos setores/profissionais, terem a possibilidade de trabalhar com a mesma base de dados, e cada um utilizando assim sua própria ferramenta para a execução da tarefa, garantindo assim confiabilidade e veracidade dos dados e tudo isso pode ser feito diretamente no Data Lake, para otimizar o desempenho quando os dados já tratados e transformados forem consumidos pelos stakeholders e tomadores de decisão. Data Store: Como vimos anteriormente, o Data Store é algo que lhe proporciona muita flexibilidade, e é algo que se mostra como uma ótima solução para situações especificas onde um Data Warehouse, ou um Data Lake não consegue ser tão viável e rentável. Sendo assim, vale analisar o seu case e aplicação final para entender o que pretende ser entregue e qual tipo de necessidade em que cada conceito melhor se aplica. Para dados do tipo semi-estruturados muitas vezes é necessário ser mantido em seu formato original, e nesta ocasião o Data Store também se faz presente. E por fim, saber identificar o tipo de necessidade também leva você à economizar durante execução da atividade, ou seja, tentar forçar o uso de uma aplicação em algo que não foi feito para tal finalidade, pode lhe acarretar problemas futuros como baixa performance ou dificuldade em manutenções caso seja necessário. Conclusão Por fim podemos concluir que com o grande volume de dados e a velocidade em que são gerados e processados, um único tipo de solução não será suficiente para dar conta de toda demanda que surgir no dia a dia de uma empresa. Desempenhar atividades apenas com Data Warehouse realizando transformações e schemas, Data Lake para armazenamento de dados brutos e tratamentos posteriores ou Data Stores com casos específicos para determinada atividade não lhe garante sucesso, mas causará dificuldades. Por isso as empresas já estão utilizando os chamados Sistemas Híbridos de Armazenamento, montando assim uma grande estrutura de armazenamento de dados, conhecida também como Data Hub, trabalhando com o maior número de opções de conceitos para que assim um auxilie na performance do outro e no fim gere melhores resultados. O que achou deste conteúdo? Já conhecia esses sistemas de armazenamento? Comenta aqui se a gente deixou passar algum que você queira entender melhor, e compartilha com aquele amigo que vive com o armazenamento cheio! 💙🤣

  • O que é Data Science?

    No artigo de hoje, o dataholic Rodrigo Santana vai apresentar de forma clara e concisa uma das profissões que mais estão em alta no momento. Se você é, deseja ser ou conhece algum cientista de dados, chegou a hora de conhecer melhor esse ramo. Boa leitura! Vemos diversos tipos de definições para esta profissão, a qual já recebeu até o título de “profissão mais sexy do século XXI” há 10 anos atrás, pela Harvard Business Review. Porém, ainda nos dias de hoje, vemos diversos tipos de definições quando é feita a seguinte pergunta: O que é Data Science? Certa vez encontrei uma definição, que mesmo sendo breve, acabou sendo objetiva o bastante para responder essa questão: “Cientistas de dados fazem observações, verificações, medições, análises e classificações, procurando entender os fatos e traduzi-los para uma linguagem estatística.” A partir dessa pequena frase podemos tirar algumas informações como: A importância do conhecimento da área do projeto para traduzi-la e assim gerar perguntas assertivas para a tomada de decisão; Perfil observador e curioso, pois será necessário realizar pesquisas e buscas constantes para adaptar seus trabalhos e torná-los robustos ao decorrer da criação de suas análises; Conhecimento estatístico, matemático e computacional para transformar suas perguntas iniciais em respostas através de seus algoritmos e modelos gerados. Em literaturas que abordam o conteúdo sobre Data Science, os três pilares que abordam esses pontos levantados são: - Ciência da Computação; - Matemática e Estatística; - Inteligência de Negócio. A junção desses três pilares nos levará a outros três campos de estudos, sendo eles: Artificial Intelligence: Técnica que permite que um computador possa pensar por si só, e agir de forma igual ou similar ao comportamento humano. Machine Learning: Podemos considerar como uma subárea da Inteligência Artificial, já que é neste estágio que as máquinas são treinadas através de métodos estatísticos e aprendem com a experiência dos testes dos modelos gerados. Deep Learning: E temos o Deep Learning, que é uma subárea do Machine Learning que faz uso de multicamadas de redes neurais com grandes volumes de dados para o treinamento do modelo. E para caminharmos para o fim deste breve artigo, gostaria de falar um pouco sobre Machine Learning, também conhecido como Aprendizado de Máquina. Machine Learning São divididos em três setores: Supervisionado, Não Supervisionado e Por Reforço. Aprendizado Supervisionado: Supervisionado: Conjunto grande de dados que faz uso dos algoritmos para treino através de dados rotulados e identificados, para assim predizer os próximos valores; Aprendizado Não Supervisionado: Não Supervisionado: Conjunto grande de dados, porém, sem rótulos e não identificados, assim os algoritmos devem aprender e diferenciar por si só, para buscar montar grupos e padronizações entre os dados levantados; Por Reforço: Por Reforço: Poucos dados ou nenhum, na base de tentativa e erro, muito utilizado em robótica por exemplo e em ambientes controlados, buscando evoluir gradativamente a cada teste executado. Para a realização dos aprendizados são utilizados procedimentos que levam a uma conclusão: Algoritmo e Modelo Algoritmos: São os passos/procedimentos realizados com início, meio e fim, com objetivo de obter um resultado. Modelo: Podemos apontar como o resultado obtido do Algoritmo, ou seja, após o “treino” realizado, o modelo é gerado. Uma das boas práticas para realizar esse treinamento do algoritmo/modelo é separar o dataset em duas bases, sendo elas Treino e Teste, e assim sempre que precisar verificar novos valores inseridos nas features, teremos valores mais precisos e próximos da realidade. Exemplo: Dataset Treino 80% ... 70% Dataset Teste 20% ... 30% O que são Features? Podemos apontar as Features como as variáveis dentro do seu dataset, como por exemplo as colunas de uma tabela, cada informação se torna uma Feature para que você utilize dentro do seu algoritmo e gere análises para montar o seu modelo. É possível realizar análises com uma, duas ou quantas mais Features desejar. Porém, existem cuidados importantes para cada situação a ser aplicada, como quando há um grande volume de Features analisadas, que pode levar um tempo maior para treino do modelo. Viés e Variância O Viés, conforme for treinado o modelo, ao aumentar a sua complexidade irá apresentar melhores índices, mas com grandes chances de cair no Overfitting, que seria um sobreajuste onde o modelo se adapta de forma muito eficiente, levando a memorização dos dados do Dataset no ambiente de Treino. Mesmo assim, quando fosse implementado no ambiente de Teste, o desempenho não seria o desejado. A Variância, por sua vez, é a métrica que pode ser utilizada para ver como o modelo se comporta em diferentes Datasets, a fim de encontrar o meio termo. Sendo ele um ajuste para os treinos executados e o ponto de equilíbrio para assim usar o modelo nos Datasets de Treino e Teste para garantir sua performance. Avaliação do Modelo Como mencionado anteriormente, após a realização do algoritmo é preciso aplicar o modelo gerado em Treino para verificar o desempenho em Teste. Porém não existe uma fórmula mágica para esta avaliação do modelo, então o melhor a ser feito é fazer uso das boas práticas a serem adotadas, para assim verificar como seu modelo irá se comportar até chegarmos no modelo final para implementação, vamos ver abaixo algumas possíveis opções: - Ajustes de parâmetros no algoritmo aplicado, desse modo gerando diversos modelos com um mesmo algoritmo; - Anotações das aplicabilidades realizadas, metodologia e parâmetros empregados para conseguir discernir os resultados obtidos e saber qual teve melhor desempenho; - Verificar quanto de acurácia o modelo obteve ao fim do modelo, levando em consideração se todas as features analisadas obtiveram retornos positivos para todas as variáveis aplicadas; - Teste com novos conjuntos de dados por meio de amostragem, para verificação de desempenho do modelo, validando assim sua performance; - Validação Cruzada, é uma prática similar à da amostragem, porém é feita a coleta de informações de forma cruzada entre os 80% - 20% e/ou 70% - 30%, que inicialmente foram separados para Treino e Teste, e posteriormente pegar outros pontos desse menor valor para rodar novamente o modelo, e ao fim tirar uma média de desempenho de todos os testes realizados para aferir a performance do modelo. Conclusão Por fim, o objetivo final deste artigo foi apresentar de forma breve e resumida a profissão Data Science que ainda gera dúvidas sobre: o que é e o que faz. Trazendo então alguns dos processos utilizados dentro do Machine Learning, que como foi citado, é apenas uma das vertentes dentro deste universo. O conhecimento da regra de negócio e a área de atuação de acordo com o projeto, é importante para conseguir realizar uma boa leitura dos dados e prepará-los de forma a gerar informação ao fim de toda execução do projeto. Assim, minimizamos o retrabalho por falta de informação que outrora acabou por ser ignorada ou não identificada na etapa de preparação ou pré-processamento dos dados, aplicando então boas práticas durante todas as etapas do processo de Machine Learning. Espero que o conteúdo até aqui tenha sido proveitoso e você possa ter esclarecido algumas dúvidas sobre o tema. Se você curtiu o conteúdo, compartilhe com quem mais possa se interessar pelo o assunto, siga nossas redes sociais e fique por dentro das novidades que a Dataside traz diariamente, para toda a comunidade.💙✔️

  • Entenda o que é, e como fazer uma boa Governança de dados

    Se você está a par do que é análise de dados e como esse processo é feito, provavelmente sabe, ou tem ideia da quantidade de dados possível de ser obtida durante o processo. Dito isso, neste artigo te ajudaremos a entender como a Governança de dados se encaixa nesse meio. Se você já deu, ou sabe qual é o primeiro passo para tornar sua empresa uma das que se orientam por dados, é crucial que você entenda a importância da governança de dados. Após o processo de recolhimento dos dados, é necessária alguma categorização e organização para que essas informações façam sentido e sejam capazes de gerar insights, que mais tarde se tornarão pontos essenciais a serem considerados na tomada de decisão. Ou seja, é um processo quase arquivístico, onde serão organizadas informações que precisam ser divididas entre as que têm ou não valor para o que precisa ser pensado e decidido no momento, enquanto outros dados continuam sendo produzidos. Não ter uma boa governança de dados é uma sentença para a desorganização e a má estruturação dos seus dados, logo dar utilidade prática a eles se tornará um desafio, visto que o primeiro passo para sua utilização é encontrá-los de maneira rápida e tê-los em uma estrutura eficiente. Estruturação dos dados A primeira etapa para uma boa governança de dados consiste na escolha da plataforma na qual eles serão acumulados, separados e categorizados, ou seja, um ambiente big data de armazenamento. É aqui que fará diferença sua escolha entre um ambiente data lake, data warehouse ou um data lakehouse, sendo este último um dos mais completos e eficientes atualmente. A diferença entre esses ambientes está nos detalhes da arquitetura dos dados, e sua funcionalidade pode variar de acordo com a necessidade da empresa. Tratando-se de uma empresa que precisa lidar com uma quantidade exponencial e constante de dados por exemplo, o melhor seria um ambiente data lake, mas para dados que são passíveis de atualizações e reestruturação o mais adequado seria um ambiente lakehouse. Aplicação prática através do modelo 5W2H Neste momento, você pode estar se perguntando como deve aplicar a governança em sua empresa. Um modelo de organização muito considerado e bem-visto entre os gestores é o 5W2H, feito para classificar e esclarecer todo processo e desenrolar de uma atividade a ser executada, que foi gerada a partir da percepção de um problema. Esse processo baseia-se na resposta de 7 perguntas fundamentais para a aplicação prática do seu planejamento estratégico. Através de uma tabela ou planilha, a atividade será explicitada para a aprovação minuciosa das pessoas responsáveis por isso. Nele você pode destacar todos os detalhes a serem pensados e por quem eles devem ser executados. Essa é uma das melhores ferramentas para um gestor que queira manter organizados e práticos cada um de seus processos e quer dar o primeiro passo em direção ao gerenciamento de dados. Ter esse tipo de planejamento estratégico guiado pelos dados torna os processos mais bem explicados e passiveis ao entendimento geral para ações mais eficientes, além de tornar a tomada de decisão algo simples e ágil. A governança constrói a base Um bom processo de governança constrói bases solidas para a empresa, e torna os procedimentos da orientação a dados mais dinâmicos, consequentemente tornando a atuação estratégica e a tomada de decisão algo mais inteligente, certeiro e eficaz. Isso sem mencionar que esse processo também pode ser automatizado, o que faz com que seja ainda mais direcionado e efetivo, tornando o trabalho dos técnicos mais proveitoso e lucrativo para a empresa. Não ter governança é como tentar procurar um objeto perdido em um quarto bagunçado, você levará o dobro ou até o triplo do tempo para achar, e gastará energia e tempo desnecessários que poderiam ser melhor aplicados em outra função para otimizar o processo. E então, partiu dar aquela faxina no ambiente dos dados? Deixe um comentário com uma dúvida ou sugestão de mais conteúdos que podemos produzir, e compartilhe com aquele amigo que precisa reorganizar os ambientes!

  • Automatizando a Identificação de problemas de relacionamento no Power BI

    Hoje o dataholic Rafael Barbosa vai te ajudar a entender de vez porque você tem valores “blank” no filtro do seu Dashboard no Power BI, usando advancend script no Tabular Editor. Boa leitura! Problemas de relacionamento geram linhas em branco, isso acontece quando sua tabela fato possui registros que não existem na tabela de dimensão. O Power BI cria uma linha em branco e relaciona esses itens não entrados. Esse tipo de problema afeta na exibição dos dados e no desempenho do seu relatório como vocês pode ver no artigo do PHIL SEAMARK em Clean data = faster reports. Então para resolver precisamos saber quais itens faltam na dimensão, para então adicioná-los. No entando, se você tiver 10 relacionamentos no seu modelo, será uma tarefa demorada, mas podemos utilizar o Tabular Editor para automatizar essa tarefa de forma simples. Para isso vou utilizar o Advanced Script do Tabular Editor. Para montar essa solução eu peguei o script do Blog Elegant BI e incrementei um pouco mais o script que ele compartilhou, criando duas versões, mas antes vou ensinar como utilizar o Advanced Script do Tabular Editor. Como rodar o script no Tabular Editor 1. Baixar e instalar o Tabular Editor. 2. Depois de instalado ele vai aparecer dentro do Power BI na aba “Ferramentas Externas”, ao clicar neste botão será aberto o Tabular Editor conectado no relatório atual. 3. Copie e cole o script dentro de Advanced Script. 4. Salve o script, para poder utilizar novamente depois. 4.1 Clique no botão “+”. 4.2 Informe o nome, você pode utilizar “\” barra para criar pastas para facilitar quando for chamar o script. 4.3 Escolha o contexto em que deve aparecer essa opção (neste caso marquei na opção “Model”). 4.4 Clique em OK. 6. Execute o Script clicando no play ou apertando F5. 7. Depois de salvo quando você precisar chamar o script novamente você pode acessar: 7.1 (Opção 1) - Clicando com o botão direito em cima do contexto escolhido, neste caso foi marcado “model” no item 5. 7.1 (Opção 2) Clicando em Samples. Agora que você sabe como faz para executar o script, deu para ver que depois de configurar, a próxima vez será somente abrir o Tabular Editor e fazer o item 7. Versão 1 - Encontrar linhas em branco resumo O 1° Script é a versão resumida, ele tem o objetivo de trazer e identificar quais tabelas que estão com problema de relacionamento e identificar as colunas responsáveis. Depois que você executar o script abaixo, ele vai retornar a essa janela com a relação dos problemas listados, só vai precisar clicar em “Copy to Clipboard”. Depois é só colar em uma planilha do Excel, para ver o resultado como mostrado abaixo: FromTable: Tabela que está sendo filtrada no relacionamento (tabela fato) ToTable: Tabela que está filtrando no relacionamento (tabela dimensão) BlankRowCount: Quantidade de linhas que a “FromTable” não entrou relacionamento direto com “ToTable” FromTableColumn: Coluna de relacionamento da “FromTable” ToTableColumn: Coluna de relacionamento da “ToTable” DAX_Table: Medida DAX para criar uma tabela com a lista de itens que faltam na tabela dimensão para resolver o problema de relacionamento. Encontrar linhas em branco resumo foreach (var rin Model.Relationships.ToList()) { bool act = r.IsActive; string fromTable = r.FromTable.Name; string toTable = r.ToTable.Name; string fromTableFull = r.FromTable.DaxObjectFullName; string fromObject = r.FromColumn.DaxObjectFullName; string toObject = r.ToColumn.DaxObjectFullName; string dax; string DAX_Table; if (act) { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; } else { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; } var daxResult = EvaluateDax(DAX_Table); string blankRowCount = EvaluateDax(dax).ToString(); if (blankRowCount !="Table" ) { daxResult.Output(); } } Depois de executar é só copiar e colar no Excel: Versão 2 - Encontrar linhas em branco detalhado Quando você roda o script anterior e segue para encontrar problemas de relacionamento no seu modelo, sucederá a próxima pergunta: Quais itens eu preciso adicionar na minha tabela de dimensão, para resolver esse problema de relacionamento? Ao rodar o próximo script, retornará a 1° coluna a relação de itens que precisam ser adicionados na coluna da tabela dimensão “D_municipios[Municipio.id]”, e a na 2° coluna a quantidade de linhas que a tabela fato possui de cada item. Como no exemplo anterior você pode copiar o resultado e colar no Excel. 1° Problema de relacionamento Ao clicar em “Close” (Fechar) o Tabular Editor vai retornar à relação do próximo problema de relacionamento. 2° Problema de relacionamento: 3° Problema de Relacionamento: Neste caso podemos ver que na tabela fato (Vacinação) possui 8 linhas em branco na coluna [paciente_racacor_codigo], neste caso o problema está na tabela fato que não está trazendo o código para essas 8 linhas. Encontrar linhas em branco detalhado //var sb =new System.Text.StringBuilder(); //string newline = Environment.NewLine; foreach (var rin Model.Relationships.ToList()) { bool act = r.IsActive; string fromTable = r.FromTable.Name; string toTable = r.ToTable.Name; string fromTableFull = r.FromTable.DaxObjectFullName; string fromObject = r.FromColumn.DaxObjectFullName; string toObject = r.ToColumn.DaxObjectFullName; string dax; string DAX_Table; if (act) { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),ISBLANK("+toObject+")))"; } else { dax ="SUMMARIZECOLUMNS(\"test\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; DAX_Table ="SUMMARIZECOLUMNS("+fromObject+",\"Inserir "+toObject+"\",CALCULATE(COUNTROWS("+fromTableFull+"),USERELATIONSHIP("+fromObject+","+toObject+"),ISBLANK("+toObject+")))"; } var daxResult = EvaluateDax(DAX_Table); string blankRowCount = EvaluateDax(dax).ToString(); if (blankRowCount !="Table" ) { daxResult.Output(); } } O que achou deste conteúdo? Nos conte nos comentários e deixe sua curtida para apoiar nossa produção. Compartilhe com os amigos!💙⚙️

  • Entenda o conceito Data thinking e Design thinking

    No artigo de hoje, o dataholic Gilson Castro vai te ajudar a entender de uma vez o que é data thinking e sua aplicação prática, e como bônus a dataholic Letícia Carvalho trouxe o conceito de design thinking. Boa leitura! O que é Data Thinking? O conceito de data thinking é definido como uma interseção do design thinking e data Science, é considerada uma abordagem holística que almeja construir e explorar o potencial de dados dentro de uma empresa. Desse modo, o Data Thinking aplica métodos de design thinking para identificar as necessidades do cliente, e maneiras criativas de encontrar novas soluções para enfrentar os desafios através da orientação por dados. Benefícios do Data Thinking: Um dos principais benefícios do Data Thinking é tornar sua estratégia de dados centrada no usuário, assim a combinação de design e dados gera mais insights profundos com a informação adquirida. Portanto, o desenvolvimento de produtos de dados passa por uma descoberta das necessidades dos usuários finais. Suas aplicações podem ser em pesquisa de perfil de usuários, análise qualitativa, testes de desempenho etc dessa forma, é preciso desenvolver um conjunto de estratégias criativas que criam novos produtos e serviços com uma visão mais detalhada dos dados em cada etapa do projeto. Vale destacar que a colaboração de equipes multidisciplinares é crucial para o sucesso de produtos de dados. Dessa forma, o Data Thinking ajuda humanizar o desenho de um produto de dados, afinal devemos colocar sempre o ser humano em primeiro lugar. A empatia com usuário é a chave para construir soluções de impacto e inclusivas através da inteligência artificial desse modo, se fazem necessários brainstormings, prototipagens e testes. O que é Design Thinking? É um método para estimular ideação e perspicácia ao abordar problemas relacionados a propostas de soluções. De forma mais clara, é utilizado para criação de projetos e desenvolvimento de produtos, que usa como base o pensamento dos designers. Essa forma de pensar pode ser entendida como o processo de resolução de problemas que leva em conta o ser humano e utiliza princípios de multidisciplinaridade, colaboração e estruturação de ideias e processos. O sucesso do Design Thinking se deve ao fato da abordagem combinar 3 elementos fundamentais para qualquer projeto: A sensibilidade presente no universo do design As ferramentas, estratégias e métodos para atender as pessoas A tecnologia disponível para solucionar um problema. Se olharmos para o mundo dos negócios, esses 3 elementos são indispensáveis para que projetos, soluções e empresas sejam criados para realmente atender alguma demanda da sociedade, de uma forma prática e acessível. Etapas do Design Thinking: Viu como ficou simples de entender? Agora curte e comenta o que mais você quer que a gente deixe simples de entender. E não esquece de compartilhar para desmistificar esse assunto de vez!💙✔ Referência: https://insights.liga.ventures/inovacao/inovacao-aberta/

  • Melhores Práticas com Tabular Editor

    Hoje o dataholic Rafael Barbosa vai nos contar sobre um jeito simples de obter um relatório de todas as melhorias que você realiza ao usar o Tabular Editor. Boa Leitura! Além de ter um relatório com ótima apresentação dos dados, um ponto muito importante é levar em consideração as boas práticas para melhoria de performance e manutenção do relatório. Para isso podemos utilizar o Tabular Editor para ajudar a identificar esses pontos que podem ser melhorados. Siga o passo a passo: 1° - Instale o Tabular Editor, logo após a instalação ele irá aparecer no seu Power BI na guia Ferramentas Externas (External Tools), use as ferramentas sem moderação!!! 2° - Agora vamos abrir o Tabular Editor e inserir o código abaixo em Advanced Scripting; para baixar as regras de boas práticas clique em Run Script ou aperte F5. System.Net.WebClient w = new System.Net.WebClient(); string path = System.Environment.GetFolderPath(System.Environment.SpecialFolder.LocalApplicationData); string url = "https://raw.githubusercontent.com/microsoft/Analysis-Services/master/BestPracticeRules/BPARules.json"; string version = System.Windows.Forms.Application.ProductVersion.Substring(0,1); string downloadLoc = path+@"\TabularEditor\BPARules.json"; if (version == "3") { downloadLoc = path+@"\TabularEditor3\BPARules.json"; } 3° - Feche o Tabular Editor e abra novamente para que as alterações sejam aplicadas. 4° Agora quando você abrir o Tabular Editor, ele mostrará a quantidade de problemas encontrados (😮238 problemas), é só clicar no aviso abaixo para ver quais são esses problemas. Lembrando que são somente sugestões de melhorias, quem defini o que deve ser alterado é você. 5° - As sugestões vêm divididas por categoria, tem até dica de melhoria de performance. Alguns itens são possíveis de serem corrigidos de forma automática clicando no botão de corrigir como no exemplo abaixo, mas outros, como trocar o modelo de snowflake para start-schema, devem ser feitos manualmente. O que achou? Ótimo para quando você precisa mostrar as melhorias que foram implementadas em algum modelo não é? Dessa forma você tem um relatório do antes e do depois de forma simples. Agora compartilha essa dica com mais colegas e comenta aqui quais dicas você quer por aqui!💙 Fonte: Blog Power BI https://powerbi.microsoft.com/en-us/blog/best-practice-rules-to-improve-your-models-performance/ Mais informações na documentação do Tabular Editor https://docs.tabulareditor.com/Best-Practice-Analyzer.html

  • Filtrando Power BI Pela URL

    O dataholic Rafael Barbosa, vai nos contar um pouco sobre a criação de filtros no Power BI. Vem ver como é fácil! Sabia que é possível criar filtros no Power BI com a URL? Funciona até mesmo em relatórios públicos, com isso é possível enviar o link do relatório já filtrado para o usuário ou utilizar links dinâmicos para direcionar para visão mais adequada para ele. {link do relatório}: Filtro Unico: {link do relatório}?filter=Tabela/Coluna eq'valor para filtrar' Lógica OU: {link do relatório}?filter=Tabela/Coluna in ('Valor1', 'Valor2') Lógica AND: {link do relatório}?filter=Tabela/Coluna eq'Valor1' and Tabela/Coluna eq'Valor2' Agora que sabemos como montar a URL, vamos criar um link dinâmico utilizando DAX. Lembrando que quando utilizamos o operador IN temos essa estrutura ('valor1','valor2', ...), agora para concatenar os itens selecionados separados por ',' será necessário utilizar o CONCATENATEX. Medida= VAR LINK = "" VAR PRE_FILTRO = "?filter=Tabela/Coluna1 in ('" VAR FILTRO1 = CONCATENATEX( DISTINCT(Tabela[Coluna1]), CALCULATE(MAX(Tabela[Coluna1])), "','" ) RETURN LINK & PRE_FILTRO & FILTRO1 & "')" Um exemplo de aplicação é inserir esse link em um botão para abrir outro relatório com filtros selecionados desse relatório que você está. E para link embedado do Power BI também é possível: Abra o relatório do serviço Power BI em seu navegador da web e copie o URL da barra de endereço. Adicione o pageName no final da URL do link embedado do Power BI, para escolher qual página que deve ser iniciada: Adicione os filtros, com a mesma lógica do exemplo anterior: (filtros de url não funcionam em link públicos) Pronto! Agora ficou fácil né? Curte, comenta e compartilha esse conteúdo para mais gente ficar sabendo.💙😍 Fontes: Fórmula CONCATENATEX: https://dax.guide/concatenatex/ Filtrando pelo link: https://docs.microsoft.com/pt-br/power-bi/collaborate-share/service-url-filters Filtrando pelo link conteúdo embedado: https://powerbi.microsoft.com/pt-br/blog/easily-embed-secure-power-bi-reports-in-your-internal-portals-or-websites/

  • Entenda a importância da mineração de dados para sua empresa

    O dataholic Gilson Castro, vai contar mais sobre o processo de mineração de dados, e deixar clara a necessidade de implementação do processo na empresa. Boa leitura! A mineração de dados (Data mining) pode ser definida como uma combinação de banco de dados e tecnologias de inteligência artificial. Este, é um campo emergente que absorveu um grande impulso nas últimas décadas, além de ser promissor dentro da análise de dados, já que permite encontrar relacionamentos e ligações significativos entre os dados. Pode ser ainda uma poderosa tecnologia afim de ajudar empresas na previsão de tendências e comportamentos futuros, permitindo que gestores tomem decisões proativas baseadas no conhecimento inteligente. Como obter valor Ao usarmos como exemplo uma rede de restaurantes, podemos supor que lojas comerciais poderiam minerar dados de compra dos clientes desses restaurantes para determinar quando os clientes visitam, e o que eles normalmente ordenam. Esta informação poderia ser usada para aumentar o tráfego nos especiais do dia, identificar segmentos de mercado ou afinidades de consumo dos consumidores. Até agora falamos de definição e exemplos, mas a usabilidade de data mining é diversa, principalmente em empresas que desejam focar no consumidor. Sabemos que hoje esse processo é a joia preciosa do negócio, por isso aquele famoso ditado aqui, faz muito sentido: “Não fale seu preço antes do cliente entender o seu valor” e o que você pode fazer para obter valor? As empresas com data mining podem determinar as relações entre os fatores “internos” como preço, posicionamento do produto, ou competências do pessoal, e fatores “externos”, como indicadores econômicos, concorrência, dados demográficos de clientes (permitindo mensurar o impacto sobre as vendas), satisfação do cliente e os lucros da empresa. Se a base de dados da sua empresa estiver crescendo, já pode pensar em como tirar proveito do conhecimento subjacente do patrimônio digital, que vem sendo acumulado com o data mining. Nesse sentido, a dica é: você precisa fazer perguntas certas para manusear a mineração de dados, pois a ferramenta não trabalha sozinha! Faça sua parte também. Inclusive, você pode começar fazendo sua parte lendo mais sobre esse assunto, no nosso blog: A importância da tomada de decisão com análise de dados em tempo real; A Importância dos Dados para a tomada de decisão dos negócios. Se curte esse tema, acompanhe nosso blog e nossas redes sociais, para não perder os próximos conteúdos!💙💻

  • Contando Duplicados com Power Query

    No artigo de hoje, o dataholic Rafael Barbosa fez questão de deixar bem explicado o processo de acabar com as colunas duplicadas no Power Query. Vem conferir! Criar colunas dentro do Power Query é muito mais performático do que utilizar colunas calculadas quando possível, mesmo assim é mais fácil você encontrar uma solução na internet utilizando DAX em uma coluna calculada do que utilizando linguagem M no Power Query. Neste caso quero contar na coluna "Equipamento superior" a quantidade de códigos que existem na minha tabela para identificar valores duplicados e qual a quantidade. 1° - Etapa addCount, agrupa a coluna que você quer contar os itens duplicados com Table.Group e adiciona a coluna "Duplicado", que vai informar a quantidade de vezes que aquele item se repete na tabela. addCount = Table.Group( Etapa_Anterior, //Chama a etapa = Etapa_Anterior {"Equipamento superior"}, //Seleciona a coluna"Equipamento superior" {{"Duplicado", Table.RowCount, type number}} //Quantidade de duplicados ) 2° - Etapa Mesclar, agora vamos mesclar a tabela do passo anterior na nossa tabela. Como o nome das colunas utilizadas como chave na hora de mesclar tem o mesmo nome o JoinKind.Inner, traz somente as outras colunas eliminando uma etapa de expandir. Mesclar = Table.Join( Etapa_Anterior, //Chama a etapa = Etapa_Anterior {"Equipamento superior"}, //Seleciona a coluna"Equipamento superior" addCount, //Chama a etapa = addCount {"Equipamento superior"}, //Seleciona a coluna"Equipamento superior" JoinKind.Inner //Mesclagem do tipo InnerJoin ) Ou podemos juntar tudo na mesma etapa de duas formas: Mesclar = Table.Join( Etapa_Anterior, {"Equipamento superior"}, Table.Group( Etapa_Anterior, {"Equipamento superior"}, {{"Duplicado", Table.RowCount, type number}} ), {"Equipamento superior"}, JoinKind.Inner ) O modo é utilizando o let in, comprando com DAX o let seria como o VAR e o in o RETURN, com isso podemos criar sub etapas dentro de uma etapa, assim fica mais fácil de entender o que foi feito, além de ser um bom modo de ocultar etapas auxiliares. Para baixar o exemplo do artigo clique aqui. let addCount = Table.Group( Etapa_Anterior, {"Equipamento superior"}, {{"Duplicado", Table.RowCount, type number}} ) in Table.Join( Etapa_Anterior, {"Equipamento superior"}, addCount, {"Equipamento superior"}, JoinKind.Inner ) Ou se quiser visualizar somente as linhas duplicadas pode utilizar a opção "Manter Duplicados" em Manter Linhas o Power Query vai filtrar somente as linhas duplicadas. Se esse passo a passo foi útil para você curta e nos diga como podemos ajudar em outras situações. Compartilhe com um amigo que também esteja precisando de uma ajudinha!💙😍

  • A importância da tomada de decisão com análise de dados em tempo real

    Você já pensou sobre a diferença que faz analisar os dados em tempo real e tomar uma decisão baseada nisso? Bom, alguns times de baseball já fazem isso, e tiveram resultados surpreendentemente positivos. Boa leitura! Se você é um cientista de dados, ou já faz uso de ferramentas de big data na sua empresa, sabe da importância de tomar decisões baseadas no que os dados mostram. Mas, já parou para pensar em quanto tempo levam algumas decisões, e o quanto esse tempo pode custar? Pare para pensar então, nas tendências do mercado, que são voláteis e podem mudar o tempo todo. É fácil entender que precisaríamos de um suporte bem mais rápido e expansivo para aguentar grandes quantidades de dados que chegam a todo momento, e consequentemente profissionais capazes de analisar e dissolver as informações desses dados mais rapidamente. Só então, nossas decisões acompanharão em tempo real as sutis mudanças no mundo corporativo para alcançar os melhores resultados. Está pensando se o seu negócio se encaixa nessa necessidade? Bom, talvez alguns exemplos ajudem a compreender melhor os benefícios de tomar uma atitude assim. O auxílio do Statcast para a tomada de decisão ágil Entraremos agora no mundo do baseball, mesmo não estando familiarizado com o ambiente em questão, subentende-se que como em qualquer outro esporte, o baseball baseia-se também em decisões rápidas que poderão definir o curso do jogo a qualquer momento. Então como a análise de dados pode ajudar? A partir deste ponto o statcast entra em cena, trata-se neste caso, do posicionamento de câmeras ao redor de todo o campo, a fim de coletar imagens de tudo o que acontece durante o jogo. Todas as informações serão consumidas por analistas em tempo real, que durante a partida atualizarão os técnicos e jogadores sobre as melhores estratégias a serem seguidas. Tudo isso, tornou-se realidade durante os jogos de 20 temporadas da Major League Baseball (MLB), onde a efetividade dos dados ficou provada e exemplificada. As análises fornecidas enquanto o jogo se desenrola podem gerar insights poderosos à equipe técnica e aos jogadores, tendo a capacidade de dizer se vale a pena uma substituição em prol de impedir uma lesão, ou se um arremesso pode ter sua trajetória alterada em benefício do time, e é claro, muitas outras possibilidades imagináveis. Aplicação prática e databricks É possível perceber agora como ferramentas que estão a favor e além dos dados são necessárias para elevar o nível de assertividade das decisões. Mas se ainda estiver subjetivo, podemos clarear um pouco mais. Pense no comércio online, e em como as informações podem chegar diariamente. Neste exemplo, você precisa decidir imediatamente sobre a próxima campanha que lançará para promover um produto, mas as informações sobre os acessos e compras não param de chegar, elas se atualizam e se renovam em quantidade e velocidade surpreendentes. Dessa forma, não somente o profissional deve ser rápido o suficiente para acompanhar os dados, mas ele deve usar também a ferramenta ideal para esse serviço. Estamos falando aqui, sobre uma plataforma lake house, que oferece todo o suporte necessário para tal feito, ou seja, que aceita dados não estruturados e permite atualizações em tempo real, entre outras características. Você pode ler mais sobre isso no artigo sobre o Databricks, que é uma plataforma lake house. Se já está fazendo as contas do quão benéfico pode ser esse investimento, com certeza deve estar interessado em mais meios de fazer seus negócios assumirem proporções maiores. Não perca tempo, acesse nossos conteúdos para saber sobre mais inovações! Curta, comente e compartilhe.💙💻

bottom of page