Le poste Data Ops
Partager cette offre
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects.
AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte
- Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée.
- Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist.
- Une plateforme d'exécution des modèles de Datascience, Sparrow Serving.
- Un outil de Community Management, Sparrow Academy.
L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets.
Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.
Dans ce contexte, nous faisons appel à une prestation en assistance technique.
les missions sont :
- Administration/Exploitation/Automatisation système d’exploitation de nos clusters
- Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs).
- Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture.
- Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover.
- Rédaction de documents techniques (architecture, gestion des changes et incidents).
- Production de livrables de qualité et partage des connaissances à l’équipe.
Notre stack technique :
- Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP.
- Containers: Docker, Kubernetes.
Profil recherché :
- Compétences avancées sur Kubernetes (Architecture, Administration de Clusters)
- Connaissances sur la gestion des secrets (Vault)
- Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC).
- Bonnes connaissances de GitLab et des processus de CI/CD.
- Connaissances de l’approche GitOps ( ArgoCD )
- Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana )
- Connaissances en bases de données relationnelles (PostgreSQL) appréciées.
- Anglais correct à l’écrit et à l’oral.
- Profil rigoureux.
Les sujets traités par l’équipe sont variés :
- Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ;
- Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ;
- Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité);
- Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ;
- Être force de proposition et participer aux POCs.
Stack Technique de l’équipe :
- Langages : Python, Golang, Bash
- GNU/Linux
- Kubernetes
- Observabilité : Prometheus, Thanos, AlertManager, Grafana
- Sécurité : Vault
- DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni
- Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Profil recherché
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects.
AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte
- Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée.
- Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist.
- Une plateforme d'exécution des modèles de Datascience, Sparrow Serving.
- Un outil de Community Management, Sparrow Academy.
L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets.
Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.
Environnement de travail
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects.
AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte
- Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée.
- Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist.
- Une plateforme d'exécution des modèles de Datascience, Sparrow Serving.
- Un outil de Community Management, Sparrow Academy.
L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets.
Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.
Dans ce contexte, nous faisons appel à une prestation en assistance technique.
les missions sont :
- Administration/Exploitation/Automatisation système d’exploitation de nos clusters
- Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs).
- Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture.
- Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover.
- Rédaction de documents techniques (architecture, gestion des changes et incidents).
- Production de livrables de qualité et partage des connaissances à l’équipe.
Notre stack technique :
- Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP.
- Containers: Docker, Kubernetes.
Profil recherché :
- Compétences avancées sur Kubernetes (Architecture, Administration de Clusters)
- Connaissances sur la gestion des secrets (Vault)
- Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC).
- Bonnes connaissances de GitLab et des processus de CI/CD.
- Connaissances de l’approche GitOps ( ArgoCD )
- Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana )
- Connaissances en bases de données relationnelles (PostgreSQL) appréciées.
- Anglais correct à l’écrit et à l’oral.
- Profil rigoureux.
Les sujets traités par l’équipe sont variés :
- Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ;
- Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ;
- Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité);
- Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ;
- Être force de proposition et participer aux POCs.
Stack Technique de l’équipe :
- Langages : Python, Golang, Bash
- GNU/Linux
- Kubernetes
- Observabilité : Prometheus, Thanos, AlertManager, Grafana
- Sécurité : Vault
- DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni
- Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Postulez à cette offre !
Trouvez votre prochain job parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Ops
CAT-AMANIA
