Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 96 résultats.
Offre d'emploi
Data Engineer
Publiée le
Data Warehouse
Oracle
SQL
1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Offre d'emploi
Data Ops
Publiée le
DevOps
Python
40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Offre d'emploi
Ingénieur IA/GenAI/MLOps
Publiée le
IA Générative
3 ans
40k-70k €
400-650 €
Île-de-France, France
Les principaux livrables attendus sont : - Référentiel des bonnes pratiques - Méthodes de Feature Engineering et de validation des données. - Compte-rendus des différents ateliers et réunions - Modèles et pipelines CI/CD - Livrables attendus dans le cadre de l’assurance qualité - Matrice des risques et plan de mitigation En tant qu’ingénieur(e) IA / MLOps, vos principales missions sont de : • Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. • Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. • Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. • Contribuer à la modélisation de votre portefeuille de cas d’usage. S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. o Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. o Challenger les approches proposées par les Data Scientists. • Piloter l’industrialisation et le déploiement des modèles IA o Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles o Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. o Construire et implémenter les pipelines, CI/CD, monitoring. o S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). • Garantir la qualité et la conformité o Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot o Auditer et valider les modèles / cas d’usage développés. o Garantir la qualité et la conformité des livrables avant mise en production. o Etablir la traçabilité : documentation, métadonnées, suivi des performances. o Être le point de contact technique privilégié pour les instances de validation. • Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. o Organiser la montée en compétence progressive et objectivée des juniors. • Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. • Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. Usage Interne / Internal Use Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Consultant Infrastructure
Publiée le
AWS Cloud
6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E
Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow
Publiée le
Amazon S3
API
API Platform
12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Mission freelance
SRE/Ops Kubernetes & Cloud Privé
Publiée le
Argo CD
Cloud privé
Kubernetes
12 mois
550-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement stable, automatisé et performant pour la mise à disposition d’environnements de développement, le déploiement de modèles, et leur supervision en production. Dans ce cadre, l’équipe recherche un profil SRE / Ops expérimenté pour renforcer la fiabilité, la supervision et l’automatisation de la plateforme, en interaction directe avec les équipes de développement, d’architecture et d’infrastructure. Missions principales: En tant que Site Reliability Engineer / Ops , vous interviendrez au cœur de la plateforme et participerez à son évolution technique. Vos responsabilités clés : Administration et exploitation Gérer et maintenir les clusters Kubernetes on-premise Superviser les déploiements des applications et services de la plateforme Garantir la stabilité, la performance et la disponibilité des environnements Automatisation et industrialisation Développer et maintenir les pipelines d’automatisation via Terraform , ArgoCD et Argo Workflows Contribuer à la mise en œuvre et à l’amélioration des processus CI/CD Participer à la conception d’une infrastructure fiable, scalable et résiliente Supervision et observabilité Mettre en place et administrer les outils de monitoring et de logging (Prometheus, Grafana, Kibana) Créer des tableaux de bord pour suivre les performances et anticiper les dérives (drift, charge, erreurs) Participer aux actions d’amélioration continue (tests de charge, alerting, performance tuning) Support et collaboration Travailler en proximité avec les développeurs (Python, Go) pour optimiser les déploiements et intégrations Être le point de contact technique sur les sujets d’infrastructure et de fiabilité Contribuer à la définition des bonnes pratiques DevOps et SRE
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Data Engineer - Gen AI - Finance (h/f)
Publiée le
12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
Développeur Python Expert – IA
Publiée le
IA
MLOps
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Offre d'emploi
Business Analyst Data & IA
Publiée le
Business Analysis
Dataiku
IA
1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Mission freelance
Développeur Go / Backend Kubernetes
Publiée le
API
Go (langage)
Kubernetes
12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Offre d'emploi
Data Analyst
Publiée le
Pandas
PySpark
1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Mission freelance
Ingénieur(e) IA / ML Ops senior
Publiée le
.NET Framework
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
96 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois