Qui sommes-nous ?

Le poste
Référénce :602e30210ac23

Data Engineer - H/F

  • Type de contrat : 602e30210ac23
  • Type de contrat : CDI / CDD
  • Niveau d'études : non précisé
  • Expérience requise : Expérience non précisée
  • Salaire : non précisé
  • Lieu de travail : non précisé

Mission

Fonctions et responsabilités :

Dans le cadre du développement de notre agence Parisienne, nous recherchons un Data Engineer (h/f). Intégré(e) au sein des équipes chez l'un de nos Clients Grands Comptes dans le domaine de la Banque, Finance ou Assurance.

 

Vous recherchez un nouveau projet dans un environnement stimulant ? Ce poste est fait pour vous.

 

Vos missions :

 

Proposer, tester et mettre en œuvre des solutions permettant aux data scientists de travailler et collaborer efficacement, dans un objectif de mettre en production des modèles de machine learning construits avec ces outils. Le périmètre va de la collecte des données à la mise en production, en passant par leur contrôle, stockage, traitement et modélisation.

Accompagner et conseiller les différentes équipes des produits dans la bonne mise en œuvre de ces outils.

Proposer, tester et mettre en place des méthodes d’anonymisation et désensibilisation des données.

Construire, collecter et documenter les bonnes pratiques liées au stockage et traitement des données dans le cloud.

Proposer, tester et mettre en place des méthodes de sécurisation de données plus poussées.


Profil recherché

Vous êtes diplômé d’un Bac +5 ou d’un diplôme d’ingénieur et disposez au moins 5 ans d’expérience ainsi que les connaissances suivantes :

 

Connaissance des pratiques de développement et opérations sur le Cloud

Connaissances des processus de déploiement : nos processus se basent sur les services du cloud provider et sur les produits internes existants assurant leur bonne configuration (Kubernetes, Pipeline CI/CD, IBM Cloud, en particulier les bases de données et l’object storage)

Connaissance des briques de base qui sont nécessaires à une platform de Data Science (Notebook, framewoks ML, Model serving)

La connaissance de KubeFlow est un plus

Connaissance des différentes technologies de transfert et traitement de données dans le cloud : streaming et transformation des données, dans un objectif d’ingestion des données

Qualités de pédagogie nécessaire vis à vis des projets et des architectes du groupe.


 



Poste à pourvoir en CDI à Paris et sa périphérie 


Informations complémentaires

A compétence égale ,la priorité sera donnée aux personnes ayant un statut reconnu de travailleur en situation de handicap .

Mission

Fonctions et responsabilités :

Dans le cadre du développement de notre agence Parisienne, nous recherchons un Data Engineer (h/f). Intégré(e) au sein des équipes chez l'un de nos Clients Grands Comptes dans le domaine de la Banque, Finance ou Assurance.

 

Vous recherchez un nouveau projet dans un environnement stimulant ? Ce poste est fait pour vous.

 

Vos missions :

 

Proposer, tester et mettre en œuvre des solutions permettant aux data scientists de travailler et collaborer efficacement, dans un objectif de mettre en production des modèles de machine learning construits avec ces outils. Le périmètre va de la collecte des données à la mise en production, en passant par leur contrôle, stockage, traitement et modélisation.

Accompagner et conseiller les différentes équipes des produits dans la bonne mise en œuvre de ces outils.

Proposer, tester et mettre en place des méthodes d’anonymisation et désensibilisation des données.

Construire, collecter et documenter les bonnes pratiques liées au stockage et traitement des données dans le cloud.

Proposer, tester et mettre en place des méthodes de sécurisation de données plus poussées.


Profil recherché

Vous êtes diplômé d’un Bac +5 ou d’un diplôme d’ingénieur et disposez au moins 5 ans d’expérience ainsi que les connaissances suivantes :

 

Connaissance des pratiques de développement et opérations sur le Cloud

Connaissances des processus de déploiement : nos processus se basent sur les services du cloud provider et sur les produits internes existants assurant leur bonne configuration (Kubernetes, Pipeline CI/CD, IBM Cloud, en particulier les bases de données et l’object storage)

Connaissance des briques de base qui sont nécessaires à une platform de Data Science (Notebook, framewoks ML, Model serving)

La connaissance de KubeFlow est un plus

Connaissance des différentes technologies de transfert et traitement de données dans le cloud : streaming et transformation des données, dans un objectif d’ingestion des données

Qualités de pédagogie nécessaire vis à vis des projets et des architectes du groupe.


 



Poste à pourvoir en CDI à Paris et sa périphérie 


Informations complémentaires

A compétence égale ,la priorité sera donnée aux personnes ayant un statut reconnu de travailleur en situation de handicap .