Comecei como estagiária em 2021, construindo meus primeiros scrapers e pipelines, e hoje atuo como engenheira de dados, evoluindo continuamente e acompanhando as stacks e práticas mais modernas do ecossistema. Sou formada em Ciências Econômicas, o que me ajuda a olhar para dados além da técnica e entender bem o problema antes de desenvolver soluções.
Fora do trabalho, sou movida por curiosidade. Gosto de observar aves e atualmente desenvolvo um projeto pessoal focado na catalogação de espécies da região de Uberlândia, reunindo características como formato de bico, tipo de pena, patas, alimentação e tamanho médio. A ideia é expandir essa base para todo o Brasil, que possui mais de 1.900 espécies de aves, e futuramente para uma escala global, considerando que existem mais de 10.000 espécies no mundo. Como parte disso, já criei um assistente com RAG e LLMs para identificação de aves a partir de descrições textuais.
Também ensino matemática para crianças, algo que considero extremamente gratificante. Durante a graduação, trabalhei com artesanato em papel como renda extra, produzindo cadernos e restaurando livros, atividade que hoje mantenho como hobby.
Sou leitora de ficção científica, especialmente Androides Sonham com Ovelhas Elétricas?, do Philip K. Dick, um livro que sempre me faz refletir sobre o que significa ser humano.
Atuo há mais de 3 anos construindo e operando pipelines de dados em produção, acompanhando todo o ciclo, desde a coleta com APIs públicas e web scraping até a modelagem, armazenamento analítico e disponibilização para sistemas e áreas de negócio. Já trabalhei com bases de grande volume, na casa de centenas de milhões de registros e com dezenas de milhares de eventos processados por dia, em contextos bem diferentes, como marketplaces e dados jurídicos.
Tenho uma atuação bem completa, passando por ingestão em fontes heterogêneas e mensageria, modelagem relacional e não relacional, construção de Data Warehouses em cloud e desenvolvimento de APIs para servir os dados. Mais recentemente, tenho me aprofundado no uso de LLMs, RAG e embeddings para classificação e extração de informação em dados não estruturados, uma área que vem ganhando bastante espaço no meu trabalho.
No dia a dia, me preocupo em construir pipelines que sejam observáveis, resilientes e, principalmente, úteis para quem realmente vai consumir esses dados.
“Simple things should be simple, complex things should be possible.”. Alan Kay
2026 - 2028
Pós-graduação2019 - 2025
BachareladoJan 2025 — Atual
CLT · IntegralResponsável por todo o ciclo de dados jurídicos, da ingestão via APIs públicas e web scraping até modelagem em SQL Server (300 M+ processos), Data Warehouse no BigQuery e classificação semântica com LLMs e RAG.
Tecnologias: Python • SQL Server • BigQuery • FastAPI • GCP • LLMs / RAG • ETL
Jan 2024 — Dez 2024
Freelancer · Meio PeríodoDesenvolvedora end-to-end: construiu scrapers com bypass de captcha para portais jurídicos (CNA/CNSA), enriqueceu e padronizou dados em MongoDB, e disponibilizou tudo via API REST.
Tecnologias: Python • Web Scraping • MongoDB • FastAPI • ETL
Nov 2022 — Out 2023
CLT · IntegralAutomatizou e operou pipelines de coleta para 10+ marketplaces (Amazon, Magalu, Mercado Livre…), gerenciando um catálogo de 60 M+ produtos com arquitetura orientada a filas via RabbitMQ e ingestão no S3 e BigQuery.
Tecnologias: Python • RabbitMQ • Elasticsearch • BigQuery • Amazon S3 • Web Scraping
Jan 2021 — Nov 2022
Estágio · Meio períodoIniciou a carreira construindo pipelines ETL e scrapers para marketplaces, integrando dados com VTEX via API e produzindo dashboards de KPIs no Google Data Studio.
Tecnologias: Python • PostgreSQL • MongoDB • Elasticsearch • Data Studio • ETL
"Without data, you’re just another person with an opinion.”
W. Edwards Deming