Quer trabalhar em uma empresa que gera impacto em
todo o mercado e está em constante evolução?
Somos a RD Station, líder em soluções de tecnologia para marketing e vendas no Brasil. Atualmente, somamos mais de 50.000 clientes, em 40 países. Nossa missão é impulsionar os negócios das pequenas e médias empresas, apresentando as melhores soluções para o seu crescimento. Por aqui, somos Customer First e acreditamos na evolução contínua, junto aos (as) nossos (as) parceiros (as) e clientes.
Como alcançamos tudo isso?
Através do nosso A-team, composto por mais de 1.500 pessoas colaboradoras em nosso grupo, capaz de oferecer soluções, produtos e educar o mercado, impactando o ecossistema e empoderando heróis e heroínas, que fazem a economia crescer.
Nosso jeito RD Station de ser:
💡 Transformamos ideias em realidade em uma empresa com crescimento acelerado e em constante evolução. Valorizamos a proatividade e a inovação, viabilizando caminhos de desenvolvimento.
🧘🏼♀️ Buscamos o bem-estar integral de cada pessoa RDoer (como chamamos nosso time por aqui), por meio de ações e benefícios que viabilizam recursos de autocuidado por meio de 5 pilares: 🧠 Emocional, 📊 Financeiro, 🏋🏼♀️ Físico, 💻 Ocupacional e 🎉 Social.
👩🏾💻 Somos primeiro lugar GPTW 2023 nas categorias mulher e etnico-racial e, através dos nossos pilares de Diversidade e Inclusão, buscamos acolher e empoderar pessoas dentro e fora da RD Station.
Seu desafio no time:
A pessoa Engenheira de Analytics colabora para que a área de Operations cumpra seu papel de dono da Estratégia de Receita da empresa, agregando conhecimento técnico e experiência ao nosso time. O profissional deve conduzir a estratégia de Dados da área, habilitando os líderes para fazer a gestão Data Driven. Transforme grandes quantidades de dados em datasets que simplificam o processo de traduzi-los em ações que maximizam a experiência de nossos clientes.
Suas principais entregas:
- Desenhar e construir soluções para automatizar rotinas de processamento de dados em larga escala baseado em tecnologias como Python, Spark, Banco de dados Hive e Google Cloud Platform (GCP), garantindo eficiência e escalabilidade.
- Construção e manutenção de pipelines de dados que integram APIs externas para enriquecimento de dados e construção de históricos, assegurando a integridade e qualidade das informações;
- Trabalhar junto aos cientistas de dados do time para integrar modelos de ML às demandas da operação. Exemplo: Refatorar e otimizar modelos de Machine Learning, especialmente aqueles baseados em Large Language Models (LLMs), utilizando o
- Google Cloud Vertex AI para melhorar desempenho e redução de custo.
- Garantir a visibilidade do processo diário de atualização dos dados, buscando eficiência das cargas, proposição de alteração de janelas de horário, etc
- Estabelecer padrões e melhores práticas para o ciclo de vida de desenvolvimento de pipeline de processamento de dados desde a concepção até a operacionalização.
- Propor e implementar soluções arquiteturais inovadoras em engenharia de dados e MLOps, avaliando novas tecnologias e melhores práticas do mercado.
Perfil que buscamos:
- Graduação em TI, Ciência da Computação, Engenharia da Computação, Estatística ou áreas afins;
- Experiência em engenharia de dados, com participação de projetos de enriquecimento de grandes volumes de dados e/ou operacionalização de modelos de Machine Learning.
- Vivência em projetos estratégicos interdepartamentais
- Domínio de Python aplicado a processamento de dados;
- Experiência sólida com Google Cloud Platform (GCP) (como Vertex AI, BigQuery, Cloud Storage e Cloud Functions).
- Proficiência em arquiteturas de dados e padrões de design para grandes volumes de dados.
- Experiência sólida com sistemas de processamento distribuído, como HQL ou Apache Spark.
- Conhecimento em conceitos e práticas de Big Data, incluindo Data Lakes, Data Warehouses e Data Lakehouses.
- Experiência em integração de APIs para ingestão e enriquecimento de dados.
- Conhecimento em segurança de dados e conformidade, incluindo governança de dados e controle de acesso.
Será considerado um diferencial
- Experiência com o ecossistema Hadoop.
- Conhecimento em MLOps, incluindo práticas de CI/CD para modelos de ML, versionamento de modelos, construção de pipelines de modelos, monitoramento e automação de deploys.
- Experiência com orquestração de workflows utilizando Apache Airflow ou Google Cloud Composer.
- Experiência com infraestrutura como código, utilizando ferramentas como Terraform.
- Familiaridade com outras plataformas de cloud, como Azure ou AWS.
- Familiaridade com contêineres e orquestração de contêineres, como Docker e Kubernetes.
- Certificações profissionais, como Google Professional Data Engineer ou Google Professional Cloud Architect.
🔒 Nos comprometemos com a segurança dos seus dados! Em nosso Aviso de Privacidade, descrevemos quais dados coletamos, como são consumidos e armazenados, em conformidade com a LGPD.
Se você é uma pessoa movida por desafios, criatividade e impacto genuíno, avance conosco nessa jornada de evolução!
Faça parte do nosso time!