Quer trabalhar em uma empresa que gera impacto em
todo o mercado e está em constante evolução?

 

Somos a RD Station, líder em soluções de tecnologia para marketing e vendas no Brasil. Atualmente, somamos mais de 50.000 clientes, em 40 países. Nossa missão é impulsionar os negócios das pequenas e médias empresas, apresentando as melhores soluções para o seu crescimento. Por aqui, somos Customer First e acreditamos na evolução contínua, junto aos (as) nossos (as) parceiros (as) e clientes.

Como alcançamos tudo isso? 

Através do nosso A-team, composto por mais de 1.500 pessoas colaboradoras em nosso grupo, capaz de oferecer soluções, produtos e educar o mercado, impactando o ecossistema e empoderando heróis e heroínas, que fazem a economia crescer. 

Nosso jeito RD Station de ser:

💡 Transformamos ideias em realidade em uma empresa com crescimento acelerado e em constante evolução. Valorizamos a proatividade e a inovação, viabilizando caminhos de desenvolvimento.

🧘🏼‍♀️ Buscamos o bem-estar integral de cada pessoa RDoer (como chamamos nosso time por aqui), por meio de ações e benefícios que viabilizam recursos de autocuidado por meio de 5 pilares: 🧠 Emocional, 📊 Financeiro, 🏋🏼‍♀️ Físico, 💻 Ocupacional e 🎉 Social. 

👩🏾‍💻 Somos primeiro lugar GPTW 2023 nas categorias mulher e etnico-racial e, através dos nossos pilares de Diversidade e Inclusão, buscamos acolher e empoderar pessoas dentro e fora da RD Station. 

 

Seu desafio no time:

A pessoa Engenheira de Analytics colabora para que a área de Operations cumpra seu papel de dono da Estratégia de Receita da empresa, agregando conhecimento técnico e experiência ao nosso time. O profissional deve conduzir a estratégia de Dados da área, habilitando os líderes para fazer a gestão Data Driven. Transforme grandes quantidades de dados em datasets que simplificam o processo de traduzi-los em ações que maximizam a experiência de nossos clientes.

 

Suas principais entregas:

  • Desenhar e construir soluções para automatizar rotinas de processamento de dados em larga escala baseado em tecnologias como Python, Spark, Banco de dados Hive e Google Cloud Platform (GCP), garantindo eficiência e escalabilidade.
  • Construção e manutenção de pipelines de dados que integram APIs externas para enriquecimento de dados e construção de históricos, assegurando a integridade e qualidade das informações;
  • Trabalhar junto aos cientistas de dados do time para integrar modelos de ML às demandas da operação. Exemplo: Refatorar e otimizar modelos de Machine Learning, especialmente aqueles baseados em Large Language Models (LLMs), utilizando o
  • Google Cloud Vertex AI para melhorar desempenho e redução de custo.
  • Garantir a visibilidade do processo diário de atualização dos dados, buscando eficiência das cargas, proposição de alteração de janelas de horário, etc
  • Estabelecer padrões e melhores práticas para o ciclo de vida de desenvolvimento de pipeline de processamento de dados desde a concepção até a operacionalização.
  • Propor e implementar soluções arquiteturais inovadoras em engenharia de dados e MLOps, avaliando novas tecnologias e melhores práticas do mercado.

 

 

Perfil que buscamos:

  • Graduação em TI, Ciência da Computação, Engenharia da Computação, Estatística ou áreas afins;
  • Experiência em engenharia de dados, com participação de projetos de enriquecimento de grandes volumes de dados  e/ou operacionalização de modelos de Machine Learning.
  • Vivência em projetos estratégicos interdepartamentais
  • Domínio de Python aplicado a processamento de dados;
  • Experiência sólida com Google Cloud Platform (GCP)  (como Vertex AI, BigQuery, Cloud Storage e Cloud Functions).
  • Proficiência em arquiteturas de dados e padrões de design para grandes volumes de dados.
  • Experiência sólida  com sistemas de processamento distribuído, como HQL ou Apache Spark.
  • Conhecimento em conceitos e práticas de Big Data, incluindo Data Lakes, Data Warehouses e Data Lakehouses.
  • Experiência em integração de APIs para ingestão e enriquecimento de dados.
  • Conhecimento em segurança de dados e conformidade, incluindo governança de dados e controle de acesso.

 

Será considerado um diferencial

  • Experiência com o ecossistema Hadoop.
  • Conhecimento em MLOps, incluindo práticas de CI/CD para modelos de ML, versionamento de modelos, construção de pipelines de modelos, monitoramento e automação de deploys.
  • Experiência com orquestração de workflows utilizando Apache Airflow ou Google Cloud Composer.
  • Experiência com infraestrutura como código, utilizando ferramentas como Terraform.
  • Familiaridade com outras plataformas de cloud, como Azure ou AWS.
  • Familiaridade com contêineres e orquestração de contêineres, como Docker e Kubernetes.
  • Certificações profissionais, como Google Professional Data Engineer ou Google Professional Cloud Architect.

 

🔒 Nos comprometemos com a segurança dos seus dados! Em nosso Aviso de Privacidade, descrevemos quais dados coletamos, como são consumidos e armazenados, em conformidade com a LGPD.

Se você é uma pessoa movida por desafios, criatividade e impacto genuíno, avance conosco nessa jornada de evolução!

Faça parte do nosso time!

 

Candidatar-se a essa vaga de emprego

* Obrigatório

resume chosen  
(File types: pdf, doc, docx, txt, rtf)
cover_letter chosen  
(File types: pdf, doc, docx, txt, rtf)


Enter the verification code sent to to confirm you are not a robot, then submit your application.

This application was flagged as potential bot traffic. To resubmit your application, turn off any VPNs, clear the browser's cache and cookies, or try another browser. If you still can't submit it, contact our support team through the help center.