Analytics Engineer especializado em transformar dados brutos em arquiteturas analíticas confiáveis — com governança, documentação e foco em necessidades reais de negócio.
Desde a ingestão até o dashboard — com arquitetura clara, dados confiáveis e documentação que o time consegue manter.
Modelagem dimensional, transformações com dbt, data quality automatizado e documentação técnica orientada ao negócio. Star Schema, Kimball, SCD Tipo 2/3.
Ingestão configurável com Airbyte, transformações com dbt e armazenamento em BigQuery ou PostgreSQL. Arquitetura Lakehouse com governança e rastreabilidade.
Dashboards interativos com Streamlit ou Evidence.dev conectados diretamente ao seu data warehouse. Métricas que o negócio consegue interpretar e usar.
Integração de sistemas via APIs REST, OAuth, webhooks e fluxos sistêmicos. Especificação técnica clara e implementação com foco em confiabilidade e segurança.
Levantamento e descoberta de requisitos de dados com visão de produto. Mapeamento de fontes, regras de negócio, roadmap analítico e priorização técnica.
Setup e configuração de ambiente de dados na AWS ou GCP. Terraform, Docker, S3, BigQuery, Databricks. Infraestrutura como código com boas práticas de segurança.
Projetos autorais com stack moderna, dados públicos e pipelines completos do início ao dashboard.
Pipeline completo de dados sobre 10 anos de contratos públicos do Estado de SC. 76 mil contratos, R$ 79,7 bilhões, 11 mil fornecedores. Ingestão, modelagem Star Schema com dbt, armazenamento no BigQuery e dashboard interativo com Evidence.dev.
Pipeline ELT end-to-end com orquestração via Airflow. Coleta dados meteorológicos da API Open-Meteo, transforma com dbt Core e armazena no BigQuery. Demonstra arquitetura moderna com stack de produção.
Portal de aluguel de temporada na Praia da Pinheira/SC operado em produção. Django 5, PostgreSQL, S3 e CloudFront na AWS, Cloudflare na frente, GA4 + GTM para instrumentação de analytics. Pipeline de conteúdo automatizado via scraper e SEO técnico configurado para tráfego orgânico.
Pipeline ETL para processamento em tempo real com Kafka e Spark Streaming. Dados governamentais ingeridos, processados e armazenados com baixa latência. Orquestração com Airflow e persistência no Cassandra.
Projeto de certificação pela Indicium.ai com pipeline ELT completo. Modelagem Star Schema com dbt Cloud e Databricks, camadas staging → intermediate → marts, testes de qualidade e documentação técnica.
Se você tem dados que precisam virar decisão, me conta o desafio. Respondo em até 24 horas.