L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 177 résultats.
Offre d'emploi
Expert.e Sécurisation Cloud AWS et GCP F/H
METSYS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
1 an
54k-58k €
630-650 €
Yvelines, France
METSYS est un intégrateur de solutions Cloud, Microsoft et Cybersécurité. Pour un de nos clients grands-comptes, de renommée nationale dans son secteur d'activité, nous recherchons un.e Expert.e Sécurisation Cloud AWS et GCP (F/H) pour un démarrage le 23 mars 2026 dans les Yvelines (78). Vous travaillerez en lien étroit avec les équipes Cyber et les équipes de notre Client en charge des offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Plus globalement, votre rôle sera d’assister notre Client sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : -Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics ; -Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences ; -Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse ; -Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place ; -Coordonner les parties prenantes (dev, secops, infra, référents sécurité) ; -Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance ; -Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : -Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets ; -Contextualiser les vulnérabilités découvertes selon l’environnement de notre Client ; -La participation et le soutien technique à la résolution des vulnérabilités ; -L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics ; -L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement ; -Former les développeurs et data scientists aux bonnes pratiques de sécurité. Participer à la vie de l’équipe sécurité : -Analyser les risques liés aux projets ; -Rédiger des expressions de besoins de sécurité ; -Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes ; -Coopérer avec les pairs et la communauté de la cybersécurité au sein de notre Client pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Cette liste n'est pas limitative.
Mission freelance
Lead Data Engineer - Python/AWS/DevOps/ Big Data/ Linux / Energie (H/F)
Octopus Group
Publiée le
Apache Airflow
Apache Spark
API
6 mois
500-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans l'Energie, un Lead data Engineer. Objectifs : Etre le/la référent(e) technique de la plateforme de données - coordination technique transverse Etre référent principale sur un sujet pilote Définir, mettre en œuvre et automatiser des pipes des données et gouvernance Assurer le Run notamment la MCO, la CI / CD et la mise en production en coordination avec l’équipe référente Préparer les pipelines Data en coordination avec l’architecte et le manager Avoir un sens expérimental et de proposition dans un contexte Multi cloud est un atout majeur Missions : Etre le/la référent(e) technique de la plateforme de données Etre garant(e) du socle technique de la plateforme data et de son évolution, Définir les besoins techniques, la roadmap d’évolution du socle technique de la plateforme de données pour suivre ses changements d’échelle et garantir ses performances et sa maintenabilité, Etre mentor et référent pour les membres de l’équipe, Participer aux choix de nos partenaires. Le dev de devops : définir, mettre en œuvre et automatiser des pipes des données et gouvernance Mettre en place des projets Data Lake (ingestion de sources, pipeline de traitements de données, modélisation, tests, déploiements) dans la meilleure architecture, Définir les meilleures de façon de stocker exposer les données au sein de la plateforme selon les usages attendus, Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats, Réaliser les développements en ayant intégré les besoins et pratiques des analystes et data scientists. run et environnements Maintenir les environnements techniques et partager vos connaissances, Gérer les incidents et s’assurer de leur résolution dans une logique d’amélioration continue et d’automatisation (ex : rejeu de données), Assurer la supervision des traitements (technique et fonctionnelle).
Mission freelance
Techlead MLOps
CAT-AMANIA
Publiée le
MLOps
1 an
400-520 €
Tours, Centre-Val de Loire
Missions Principales du Responsable de Plateforme MLOps (mission Pilote de Socle) Conception et Architecture : • Définir et faire évoluer l'architecture technique de la plateforme MLOps en adéquation avec les besoins des équipes Data & IA et les standards . • Sélectionner et intégrer les outils et technologies MLOps les plus pertinents en se basant sur le cadrage réalisé en 2025 (orchestration, versioning de modèles, monitoring, CI/CD pour l'IA, etc.). • Assurer la cohérence et l'intégration de la plateforme MLOps avec les socles CI/CD, LLMOps existant et Python à venir. Mise en Œuvre et Déploiement : • Superviser et participer activement à la mise en œuvre technique de la plateforme MLOps. • Compléter le socle CI/CD avec les compostants spécifiques aux modèles d'IA. • Définir et implémenter les processus de déploiement et de mise à jour des modèles en production en s’appuyant sur l’existant et les équipes production DSI. Opérations et Monitoring (RUN) : • Garantir la disponibilité, la performance et la sécurité de la plateforme MLOps en production. • Mettre en place des outils et des processus de monitoring proactif des modèles et de l'infrastructure. • Définir et suivre les indicateurs clés de performance (KPIs) et les Service Level Agreements (SLAs) de la plateforme. • Gérer les incidents et les problèmes liés à la plateforme MLOps en cohérence avec les pratiques Standardisation et Bonnes Pratiques : • Établir et promouvoir les bonnes pratiques MLOps au sein des équipes Data & IA. • Définir les standards de développement, de test et de déploiement des modèles. • Assurer la documentation technique et fonctionnelle de la plateforme. Accompagnement et Support : • Accompagner les équipes Data Scientists et Machine Learning Engineers dans l'utilisation de la plateforme. • Fournir un support technique de niveau expert aux utilisateurs. • Contribuer au processus de formation et de partage de connaissances sur les outils et processus MLOps en lien avec les équipe change du Data Office. Veille Technologique : • Assurer une veille technologique constante sur les évolutions du marché MLOps et proposer des améliorations continues.
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Offre d'emploi
PRODUCT OWNER IA AGENTIC R&D
SMILE
Publiée le
Méthode Agile
1 an
Paris, France
Contexte : Dans le cadre de nos travaux IA et de notre roadmap, nous lançons plusieurs pilotes autour de l’ IA Agentic en phase d’expérimentation. Nous recherchons un Product Owner pour nous accompagner dans cette démarche de test et R&D , avec un fort rôle d’interface entre les besoins métier et la mise en œuvre technique. Missions : Le PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l’ensemble des équipes : Métier, IT, Data Scientists , ainsi qu’avec des partenaires éditeurs. Ses missions incluront : Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. Orientation Business : traduire les besoins métier en cas d’usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l’IA Agentic sera déployée. Compréhension de l’Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s’appuyant sur le PO Asset pour la mise en œuvre technique détaillée. Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. Pilotage complet : gestion du projet de bout en bout, de l’idéation à l’évaluation des pilotes, avec une autonomie totale.
Offre d'emploi
Product Owner Data RH - F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
Ingénieur Machine Learning (MLOps)
JobiStart
Publiée le
Machine Learning
3 ans
400-550 €
Paris, France
Vous assurez le pont entre la recherche en Data Science et la mise en production des modèles prédictifs. Votre mission principale consiste à industrialiser les pipelines de Machine Learning pour garantir leur robustesse, leur répétabilité et leur scalabilité. Vous mettez en place des chaînes de CI/CD spécifiques au ML (MLOps) incluant le versioning des données, des modèles et du code. Vous développez des outils de monitoring pour détecter la dérive des données (data drift) et la baisse de performance des modèles en production. Vous travaillez sur l'optimisation des infrastructures de calcul (GPU/CPU), la conteneurisation des modèles (Docker/Kubernetes) et l'exposition via des micro-services performants. Expert technique, vous collaborez avec les Data Scientists pour optimiser les algorithmes et avec les équipes Infra pour garantir une intégration fluide dans l'écosystème Cloud ou On-premise de la banque.
Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)
5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative
1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Mission freelance
Développeur Python/Angular H/F
Nexius Finance
Publiée le
FastAPI
Python
3 ans
Paris, France
Contexte Vous évoluez au sein d’une équipe transverse dédiée au développement rapide de solutions à forte valeur ajoutée pour différents métiers. Notre positionnement est hybride : Développement “commando” en proximité directe avec les équipes métier Conception de solutions innovantes intégrant l’IA Générative Veille technologique et exploration de nouveaux usages autour de la Data et de l’IA Accompagnement à l’industrialisation des solutions dans un environnement IT structuré L’équipe (une vingtaine de profils : data engineers, data scientists, développeurs full stack, tech lead, chef de projet) fonctionne en mode agile , avec une forte culture d’entraide, d’autonomie et de responsabilité collective. Le client recherche un profil capable de s’intégrer dans cette dynamique, avec un bon relationnel et une vraie capacité à interagir avec des interlocuteurs métiers. Missions: Vous interviendrez en tant que Développeur Full Stack sur des sujets variés mêlant développement applicatif et IA générative. Projet principal: Vous démarrerez sur un chantier stratégique : Développement d’une solution d’évaluation ESG d’entreprises à partir d’un corpus documentaire, intégrant des APIs d’IA générative (LLMs, RAG). Vos responsabilités: Concevoir et développer des solutions logicielles de bout en bout Garantir la qualité du code (tests unitaires et fonctionnels, performance, maintenabilité) Développer des interfaces dynamiques et réactives en Angular Concevoir et exposer des APIs via FastAPI Participer à la réalisation de POCs autour de l’IA générative Concevoir des applications intégrant des modèles de type LLM Assurer la maintenance évolutive et le run d’applications existantes Collaborer avec les équipes produit/design lorsque nécessaire Participer à la mise en place des bonnes pratiques (documentation, standards, qualité) Échanger directement avec les équipes métier pour comprendre, challenger et affiner les besoins Profil recherché:Compétences techniques Très bonne maîtrise d’Angular Solide expérience avec FastAPI et les services web Très bonne maîtrise de Python Connaissance des bases de données relationnelles et non relationnelles Maîtrise des outils de versioning (Git) Bonne compréhension des concepts liés à l’IA générative (LLM, RAG, APIs d’IA) Une expérience sur des projets intégrant de l’IA générative est fortement appréciée.
Offre d'emploi
Expert Sécurité Cloud / CNAPP (Run & Gouvernance) — Secteur Média
AS INTERNATIONAL
Publiée le
Cybersécurité
KPI
Vulnerability management
3 ans
Île-de-France, France
Dans le cadre de la sécurisation et de l’industrialisation d’environnements Cloud public (AWS & GCP) , nous recherchons un(e) Expert(e) Sécurité Cloud pour travailler en lien étroit avec une équipe Cyber et les équipes en charge des Landing Zones . Vous accompagnerez la transformation DevOps & Cloud et la mise en place sécurisée de briques technologiques innovantes autour des architectures container , hybrides et cloud public , au service d’applications métiers en production. Vos missions (Run Sécurité Cloud) 1) Lutter contre les vulnérabilités Cloud Administrer une solution CNAPP (gestion des vulnérabilités, audits de configuration, comportements à risque) sur des environnements AWS/GCP. Assurer l’adoption de l’outil : documentation , formation , gestion des accès , amélioration continue, suivi des bugs et licences. Maintenir à jour les contrôles, politiques et procédures conformément aux standards de l’industrie. 2) Bâtir une gouvernance sécurité transverse Piloter les risques opérationnels détectés sur le périmètre par les outils de sécurité. Coordonner les parties prenantes : développement , SecOps , infra , référents sécurité. Produire des KPI de suivi de la sécurité opérationnelle (visibilité, confiance, pilotage). Suivre et valider la maturité et la conformité aux référentiels ( ISO , NIST , RGPD , IA Act ). 3) Accompagner les équipes techniques Animer des ateliers pour qualifier les vulnérabilités, répondre aux alertes et accélérer la remédiation. Contextualiser les vulnérabilités selon l’environnement, soutenir techniquement la résolution et promouvoir les bonnes pratiques cloud. Aider à l’affectation des vulnérabilités aux bonnes équipes (automatique et/ou manuel). Former développeurs et data scientists aux bonnes pratiques de sécurité . 4) Contribuer à la vie de l’équipe sécurité Analyser les risques projets, rédiger des expressions de besoins sécurité. Contribuer à la montée en compétence sécurité cloud des équipes et à une dynamique collaborative forte.
Mission freelance
Ingénieur Azure AI & Cognitive Services
JobiStart
Publiée le
AI
Azure
3 ans
400-550 €
Paris, France
Description du poste : Au sein du lab d'innovation, vous concevez et déployez des solutions d'intelligence artificielle basées sur les services Azure. Votre mission consiste à intégrer des capacités cognitives (Vision, Speech, Language, Decision) dans les applications bancaires pour automatiser les processus et améliorer l'expérience utilisateur. Vous développez des solutions utilisant Azure OpenAI (GPT-4) pour le traitement du langage naturel, le résumé de documents juridiques ou l'analyse de sentiment. Vous mettez en œuvre des architectures MLOps sur Azure Machine Learning pour industrialiser le cycle de vie des modèles, de l'entraînement au déploiement. Vous travaillez sur l'optimisation des coûts (FinOps AI), la sécurité des modèles et l'éthique des algorithmes. Vous collaborez avec les data scientists pour transformer les prototypes en services IA robustes, scalables et directement intégrés aux workflows métiers de la banque.
Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)
Freelance.com
Publiée le
Merise
1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Mission freelance
MLOps / Tech Lead Plateforme IA
Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake
12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
177 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois