Data Engineer GCP H/F/D

 

Qui sommes-nous ?

Capco est un cabinet international de conseil en management et en technologie spécialisé dans la transformation des services financiers, avec 32 bureaux répartis entre l’Amérique du nord, l’Amérique du sud, l’Asie et l’Europe et regroupant plus de 7 000 collaborateurs, dont 170 à Paris.

Nos équipes associent capacité d’innovation et expertise métier dans le but d’offrir à nos clients une forte valeur ajoutée et un impact différenciant, de la stratégie à l’exécution.

Rejoindre Capco, c'est rejoindre une organisation qui s'engage pour un environnement de travail inclusif où vous êtes encouragé à être vous-même (#BeYourselfAtWork). Nous reconnaissons l'individualité, la diversité et l'inclusion, comme des caractéristiques essentielles au succès de notre cabinet.

Nous sommes de nouveau certifiés Great Place To Work et figurons dans le Palmarès 2020.

 

Votre rôle

Capco recherche des ingénieurs de données afin d’aider nos clients bancaires et autres institutions financières à créer des produits que les clients aiment et qui sont un succès commercial pour nos clients.

Au sein de la direction Tech, la Data Factory a pour objectifs de piloter, définir, déployer et opérer les meilleures solutions technologiques répondant aux cas d’usage data et d’automatisations de processus de la banque au travers de plateformes. Également, la Data Factory contribue au développement des produits, à la cristallisation et à la diffusion des pratiques au sein des Squads sur les usages data.
Au sein de la Data Factory, vous intégrez la squad Data Platform en tant que Data Engineer GCP (Google Cloud Platform). 

Plus concrètement, vos activités sont les suivantes :

  • Réaliser des analyses et des études d’impacts en amont des développements
  • Concevoir des solutions en respectant les bonnes pratiques de développement
  • Réaliser les développements des évolutions des applications DATA
  • Assurer le support aux testeurs lors des phases de recette
  • Documenter les solutions techniques réalisées

Expérience et compétences requises :

Titulaire d’un diplôme de formation supérieure type école d'informatique ou école d’ingénieur, vous avez une expérience de 3 ans minimum développements sur la platform GCP notamment BigQuery, Looker et Data Proc, au sein d’une Tech company (Fintech), d’une agence et/ou d’un cabinet de conseil.

  • Plus de 6 ans d’expériences en data engineering / data management / ingénierie de données
  • Ingénieur de données ayant une très bonne maitrise de Python, Pandas, SQL, Spark et DBT
  • Bonne expérience sur Kafka comme source de données
  • Très bonne connaissance d’une chaine de CI/CD avec Teraform, Gitlab, Kubernetes
  • Bonne connaissance de l’agilité (framework scrum)
  • Bonne capacité à appréhender les besoins métiers
  • Proactif, autonome, rigoureux
  • Capacités d’écoute, d’analyse et de synthès

 

Environnement technique :

GCP, BigQuery, Looker, Python, Pandas, SQL, Spark, DBT, GitLab, Teraform, Kubernetes 

 

Pourquoi rejoindre Capco ?

Nous travaillons avec plus de 80% des plus grandes institutions financières mondiales, nous accompagnons nos clients sur des projets qui vont transformer le secteur des services financiers et bancaires.

Chez Capco, nous offrons :

  • Une culture basée sur l’innovation et la création d’impact pour nos clients et employés.
  • Des possibilités d'apprentissage continu pour vous aider à acquérir de nouvelles compétences ou à approfondir votre expertise existante
  • Une structure plate et non hiérarchique qui vous permet de travailler avec des partners et directement avec nos clients

Une culture diversifiée, inclusive et méritocratique.

Postuler pour cet emploi

* Requis
resume chosen  
(File types: pdf, doc, docx, txt, rtf)
cover_letter chosen  
(File types: pdf, doc, docx, txt, rtf)