MLops

Qu'est-ce que tu vas faire?

Sous la responsabilité du pôle data sciences tu vas évoluer de manière transverse tant au sein des entités data et/ou SI de nos clients. Tu interagiras avec les équipes de Data Science et de Développement et auras en charge la conception et l’implémentation des solutions d’industrialisation dont l’objectif est d’améliorer la qualité des produits Data Science et de contribuer à mettre en place un environnement de développement performant.

Tes challenges ?

Tu dois apporter ton expertise à la conception et à l’implémentation de solutions pour la gestion automatisée des datasets et des chaînes de traitement de modèle ML : • Acquisition de données • Annotation • Entraînement • Benchmarking • Versioning • Monitoring (etc.) Tu dois participer également à l’automatisation progressive générale des tâches de Data Science.

Au quotidien, tes principales tâches seront :

  • Supporter le processus de développement machine learning de bout en bout pour concevoir, créer et gérer des logiciels reproductibles, testables et évolutifs
  • La refactorisation du code pour préparer la mise en production
  • L’analyse des problématiques de Data Science
  • La formation et le conseil des bonnes pratiques auprès des Data Scientists
  • La rédaction de documentation technique
  • La conception et le développement d’APIs et d’interfaces
  • Défendre les principes « Data, Model, Code » du framework MLOps du projet IA;
  • Expliquer et appliquer les best practices pour l’automatisation, le testing, le versioning, la reproductibilité et le monitoring des solutions IA déployées
  • Mettre en place/Expliquer les choix du tooling pour les composants du MLOps stack : feature store, code repository, model registry, machine learning pipeline, metadata store

Ton Profil :

  • Ecole d’ingénieur ou Master en mathématiques/Statistique/Data ou équivalent
  • Expérience sur des projets DevOps dans le contexte de l’Intelligence Artificielle
  • Expérience confirmée en développement PYTHON (threading, packaging)
  • Connaissance du Framework REST (à confirmer)
  • Expérience en intégration continue
  • Expérience dans un environnement CLOUD ( GCP, Azure, AWS)
  • Bonne connaissance des problématiques de Data Science
  • La connaissance de Dataïku serait un plus