Job position Data Ops
Share this job
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects.
AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte
- Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée.
- Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist.
- Une plateforme d'exécution des modèles de Datascience, Sparrow Serving.
- Un outil de Community Management, Sparrow Academy.
L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets.
Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.
Dans ce contexte, nous faisons appel à une prestation en assistance technique.
les missions sont :
- Administration/Exploitation/Automatisation système d’exploitation de nos clusters
- Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs).
- Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture.
- Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover.
- Rédaction de documents techniques (architecture, gestion des changes et incidents).
- Production de livrables de qualité et partage des connaissances à l’équipe.
Notre stack technique :
- Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP.
- Containers: Docker, Kubernetes.
Profil recherché :
- Compétences avancées sur Kubernetes (Architecture, Administration de Clusters)
- Connaissances sur la gestion des secrets (Vault)
- Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC).
- Bonnes connaissances de GitLab et des processus de CI/CD.
- Connaissances de l’approche GitOps ( ArgoCD )
- Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana )
- Connaissances en bases de données relationnelles (PostgreSQL) appréciées.
- Anglais correct à l’écrit et à l’oral.
- Profil rigoureux.
Les sujets traités par l’équipe sont variés :
- Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ;
- Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ;
- Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité);
- Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ;
- Être force de proposition et participer aux POCs.
Stack Technique de l’équipe :
- Langages : Python, Golang, Bash
- GNU/Linux
- Kubernetes
- Observabilité : Prometheus, Thanos, AlertManager, Grafana
- Sécurité : Vault
- DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni
- Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Candidate profile
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects.
AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte
- Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée.
- Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist.
- Une plateforme d'exécution des modèles de Datascience, Sparrow Serving.
- Un outil de Community Management, Sparrow Academy.
L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets.
Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.
Working environment
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects.
AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte
- Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée.
- Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist.
- Une plateforme d'exécution des modèles de Datascience, Sparrow Serving.
- Un outil de Community Management, Sparrow Academy.
L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets.
Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets.
Dans ce contexte, nous faisons appel à une prestation en assistance technique.
les missions sont :
- Administration/Exploitation/Automatisation système d’exploitation de nos clusters
- Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs).
- Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture.
- Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover.
- Rédaction de documents techniques (architecture, gestion des changes et incidents).
- Production de livrables de qualité et partage des connaissances à l’équipe.
Notre stack technique :
- Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP.
- Containers: Docker, Kubernetes.
Profil recherché :
- Compétences avancées sur Kubernetes (Architecture, Administration de Clusters)
- Connaissances sur la gestion des secrets (Vault)
- Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC).
- Bonnes connaissances de GitLab et des processus de CI/CD.
- Connaissances de l’approche GitOps ( ArgoCD )
- Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana )
- Connaissances en bases de données relationnelles (PostgreSQL) appréciées.
- Anglais correct à l’écrit et à l’oral.
- Profil rigoureux.
Les sujets traités par l’équipe sont variés :
- Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ;
- Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ;
- Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité);
- Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ;
- Être force de proposition et participer aux POCs.
Stack Technique de l’équipe :
- Langages : Python, Golang, Bash
- GNU/Linux
- Kubernetes
- Observabilité : Prometheus, Thanos, AlertManager, Grafana
- Sécurité : Vault
- DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni
- Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Apply to this job!
Find your next job from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Ops
CAT-AMANIA
