Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 314 résultats.
Offre d'emploi
Chef de Projet Data / Delivery Master
CAT-AMANIA
Publiée le
Microsoft Excel
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Offre d'emploi
Chef de Projet IA
VISIAN
Publiée le
Gestion de projet
Gouvernance
1 an
40k-45k €
200-430 €
Paris, France
Descriptif du poste L'organisation souhaite accélérer l'identification, le cadrage et la mise en production de cas d'usage d'Intelligence Artificielle, tout en garantissant la cohérence stratégique, la valeur métier et le respect des standards techniques. Il s'agit plus précisément d'aider la responsable du LAB AI à : Orchestrer les parties prenantes (métiers, Data Science, IT, architecture) Structurer un portefeuille de cas d'usage IA Sécuriser le cadrage et la priorisation Faciliter l'adoption et la gouvernance IA Tâches à réaliser A. Pilotage du portefeuille de cas d'usage IA Recueillir et qualifier les demandes Suivre l'avancement, les dépendances, les risques et la valeur créée Mettre en place et tenir à jour des indicateurs (valeur, maturité, coûts, risques) B. Coordination & communication transverse Assurer le lien entre le LAB AI et les SPOC IT et Non IT Vulgariser les concepts IA auprès de publics non techniques C. Animation & facilitation Concevoir et animer des ateliers : Co-design, co-construction, industrialisation Priorisation Retours d'expérience / capitalisation Aligner les parties prenantes et faciliter l'intelligence collective D. Interface avec experts IA, Data Engineers et architectes Valider la faisabilité technique d'un cas d'usage Comprendre les contraintes data, les dépendances, les impacts architecture Contribuer aux comités et instances de gouvernance IA E. Structuration & capitalisation Contribuer à la création ou amélioration : Des référentiels de cas d'usage Des templates de cadrage Du framework méthodologique IA Des bonnes pratiques IA Documenter les retours d'expérience (succès, échecs, apprentissages) Promouvoir et diffuser la culture IA dans l'organisation
Mission freelance
Fullstack Python/React Developer
Phaidon London- Glocomms
Publiée le
Python
React
12 mois
600-800 €
Paris, France
Développeur Full Stack Python / React Localisation : Paris, France (hybride) Type de contrat : 12 mois Contexte Nous accompagnons une grande institution bancaire basée en France dans un projet stratégique visant à concevoir une nouvelle génération de portail en ligne à destination de ses clients particuliers et entreprises. Cette mission consiste à construire une plateforme web sécurisée, évolutive et cloud-native , centralisant l’ensemble des services bancaires digitaux : gestion des comptes, paiements, souscriptions de produits financiers, assistance client et consultation d’informations en temps réel. Dans le cadre de cette transformation, le Développeur Full‑Stack Python/React jouera un rôle clé dans la conception et le développement de la plateforme from scratch , en garantissant un haut niveau de cybersécurité, une expérience utilisateur fluide et la conformité aux normes et réglementations du secteur bancaire. Responsabilités Concevoir et développer des applications full‑stack en Python (FastAPI / Django / Flask) et React Construire un portail web robuste offrant des fonctionnalités bancaires digitales complètes Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes Mettre en place des flux de données en temps réel ou quasi temps réel pour l’affichage d’informations bancaires Traduire les besoins métiers en solutions techniques scalables , maintenables et performantes Développer des composants cloud‑native sur Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD suivant les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe SI Documenter les solutions et contribuer activement au partage de connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences Techniques Requises Expertise en développement backend Python (FastAPI fortement apprécié ; Django/Flask acceptés) Maîtrise de React et des outils modernes du frontend : TypeScript Hooks Bibliothèques de gestion d'état (Redux, Zustand, Recoil, etc.) Expérience en développement cloud‑native sur Microsoft Azure , incluant : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Solide expérience en conception d’API (REST ; GraphQL apprécié) Connaissances en architectures sécurisées et en gestion des identités : OAuth2, OpenID Connect Azure Active Directory MSAL
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Mission freelance
Product Owner data
ESENCA
Publiée le
API
Gouvernance
Kanban
1 an
Lille, Hauts-de-France
Attention : Mission dans la région lilloise, la présence sur site est obligatoire 🎯 Objectif du poste Piloter et faire évoluer une plateforme de data streaming transverse, destinée à faciliter la production, la consommation et la gouvernance des flux de données en temps réel au sein d’un écosystème digital complexe. Le rôle vise à garantir la valeur produit , la fiabilité des flux critiques et une excellente expérience développeur , tout en assurant l’alignement avec la stratégie produit globale. 🧩 Missions principalesProduct Management Définir et piloter la stratégie produit de la plateforme de streaming de données Gérer et prioriser le backlog Jira en cohérence avec la vision produit Structurer et affiner les Epics, User Stories et tâches techniques en collaboration avec les équipes produit et techniques Assurer les activités de discovery, delivery et post-delivery (suivi de la valeur, feedback, amélioration continue) Construire et partager la roadmap produit , les indicateurs de performance et les reportings associés Coordination & collaboration Travailler au sein d’une équipe cross-fonctionnelle (développeurs, data engineers, experts techniques) Être l’interface entre les équipes techniques, les produits consommateurs et les parties prenantes métiers Faciliter l’adoption de la plateforme à l’échelle de l’organisation Plateforme & écosystème Contribuer à la conception et à l’évolution de produits tels que : Outils de gestion et de monitoring de clusters de streaming APIs de streaming d’événements (internes et exposées) Outils de mock et de replay de flux de données Guidelines, standards et bonnes pratiques autour du streaming et de l’event-driven 🛠 Compétences requisesHard skills Expertise en Product Management (discovery, delivery, suivi post-livraison) Expérience confirmée sur des produits complexes , techniques et fortement intégrés (APIs, plateformes) Solide compréhension des architectures distribuées et des flux de données Maîtrise des frameworks agiles (Scrum, Kanban) Capacité à prioriser un backlog selon la valeur business , la criticité sécurité/stabilité et les métriques produit Connaissances approfondies en Data Streaming , Kafka, Event-Driven Architecture, Data Mesh Bonne compréhension des enjeux de monitoring et gouvernance des données Anglais professionnel courant (impératif) Atouts appréciés Familiarité avec les outils d’ observabilité , data lineage, schema registry Notions de sécurité des flux de données (authentification, autorisation, chiffrement, conformité réglementaire) Excellentes capacités de reporting et de présentation (vision produit, roadmap, avancement)
Mission freelance
Développeur Full Stack Python / Angular – IA Générative
CAT-AMANIA
Publiée le
Angular
FastAPI
Git
2 ans
400-450 €
Île-de-France, France
Dans un contexte de forte proximité avec les métiers et d’ innovation rapide , vous rejoignez une équipe de développement transverse dédiée à la création de solutions digitales à forte valeur ajoutée. Cette équipe intervient en mode agile , avec une approche pragmatique et orientée résultats, pour concevoir rapidement des outils métiers, expérimenter de nouveaux usages autour de l’IA générative et accompagner leur industrialisation au sein du système d’information. Vous évoluez au sein d’une équipe pluridisciplinaire composée de développeurs full stack, data engineers, data scientists, tech leads et chef de projet, reconnue pour sa dynamique collective , son esprit d’entraide et sa culture de l’innovation. Vos missions En tant que développeur full stack, vous interviendrez sur un périmètre large et varié : Concevoir et développer des applications web de bout en bout , du besoin métier jusqu’à la mise en production Développer des interfaces web modernes et performantes en Angular, exploitant des traitements de données complexes Concevoir et implémenter des APIs robustes et performantes avec FastAPI Participer à la réalisation de POC et d’applications intégrant de l’IA générative Contribuer à la maintenance évolutive et au run des applications existantes Garantir la qualité du code via des tests unitaires et fonctionnels et le respect des bonnes pratiques Collaborer étroitement avec les équipes produit, design et les utilisateurs métiers Participer à la documentation et à l’amélioration continue des pratiques de développement Être force de proposition dans les réflexions techniques et les choix de solutions innovantes
Mission freelance
Responsable d’intégration technique (Programme ERP / Caisse)
Mon Consultant Indépendant
Publiée le
AMOA
ERP
6 mois
500-520 €
Paris, France
Contexte Programme de transformation visant la mise en place d’un nouvel ERP , avec une dimension transverse forte , couvrant les périmètres ERP et Caisse (POS) . Plusieurs projets techniques sont menés en parallèle dans un cadre programmatique structuré. Positionnement Intervention sous la responsabilité du Directeur de programme Travail en lien étroit avec l’intégrateur Appui sur des responsables de chantiers transverses (ERP / Caisse) Rôle de référent intégration technique auprès des directeurs de projet Rôle Pilotage de l’ensemble des chantiers d’intégration technique Coordination transverse des projets techniques ERP et Caisse Supervision des interfaces , reprises de données et flux Garantie de la cohérence globale des intégrations Appui et cadrage des chefs de projet techniques de l’intégrateur Remontée des alertes, risques et arbitrages sur le périmètre intégration Périmètre ERP Caisse / POS Interfaces et flux Reprises de données Chantiers techniques transverses Modalités Taux de sollicitation variable Environ mi-temps en moyenne Intervention flexible , avec des phases plus ou moins chargées selon l’avancement du programme NE PAS POSTULER SI VOUS ÊTES : PMO / PMO Programme Directeur de programme Directeur de projet SI Coach Agile / Agile Lead Responsable infrastructure Architecte Cloud / Architecte plateforme Head of IT / DSI / DSI adjoint Responsable RUN / TMA Expert Data / Data Engineer Consultant AMOA
Mission freelance
DataOps Engineer expert Snowflake
Codezys
Publiée le
Python
Snowflake
3 mois
250-300 €
Bordeaux, Nouvelle-Aquitaine
Localisation : Bordeaux Deadline réponse : 14 janvier 26 Démarrage asap pour 3 mois Partenaires et Freelances Mission : ntégré à la DSI en tant que DataOps Engineer, au sein de l’équipe Data Tech Knowledge de la direction IT DATA, vous viendrez apporter votre expertise technique sur la mise en place et l'évolution de la stack data. A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Mission freelance
Expert MS Fabric
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Microsoft Fabric
12 mois
Paris, France
Fluent english! Piloter la mise en place et l’architecture de la plateforme Microsoft Fabric , garantir la cohérence technique, la sécurité et la performance des environnements Data, en alignement avec les bonnes pratiques Cloud et DevOps . Responsabilités Définir et implémenter l’architecture cible Microsoft Fabric (Data Factory, Data Engineering, Data Science, Real-Time, OneLake). Mettre en place les standards, patterns et bonnes pratiques (gouvernance, sécurité, performances, optimisation des coûts). Encadrer et accompagner l’équipe projet (Data Engineer, Cloud Engineer, Data Scientist, Purview Expert). Industrialiser la configuration via scripts IaC / DevOps (ARM/Bicep, Terraform, GitHub Actions, Azure DevOps). Assurer le lien avec les parties prenantes (métier, IT, sécurité) et garantir la conformité (RGPD, gouvernance). Suivre l’avancement technique, challenger les choix et valider les livrables.
Offre d'emploi
Tech Lead Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Mission freelance
MLOps / Tech Lead Plateforme IA
Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake
12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Offre d'emploi
DataOps Engineer
CAT-AMANIA
Publiée le
CI/CD
ETL (Extract-transform-load)
Méthode Agile
3 mois
40k-45k €
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant que DataOps Engineeer, et en coordination avec l’équipe, vos missions principales seront de : - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD
Offre d'emploi
Tech Lead Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Offre d'emploi
Senior Cloud Security Engineer – Azure / GenAI (H/F)
AVA2I
Publiée le
Microsoft Copilot Studio
Azure AI
CI/CD
3 ans
Île-de-France, France
Dans le cadre de programmes stratégiques autour de l’ IA de nouvelle génération (GenAI) , notre client grand compte du secteur bancaire renforce ses équipes avec un expert technique en cybersécurité et DevSecOps , très orienté mise en œuvre concrète des contrôles de sécurité sur Azure / Microsoft . Vous rejoignez une équipe internationale mature, déjà dotée de profils GRC et pilotage . 👉 Ce poste n’est pas un rôle de chef de projet ni de GRC : la valeur attendue est 100 % technique . 🎯 Priorité absolue : experts cyber capables de sécuriser des cas d’usage GenAI / LLM / agentiques en production , dans un contexte bancaire exigeant (sécurité, conformité, data sensible) . Vos missions (périmètre technique) Vous interviendrez en support technique avancé pour la sécurisation de la stack IA du client : 🔹 Sécurité des plateformes GenAI sur Azure Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Microsoft Fabric, Power Platform, M365 Intégrations data (ex : Snowflake) 🔹 Design & implémentation des contrôles de sécurité Identités & accès : RBAC, MFA, Conditional Access, PIM Sécurisation réseau et cloisonnement des environnements Sécurisation des endpoints et services IA 🔹 DevSecOps & Infrastructure as Code Mise en place et amélioration de pipelines CI/CD sécurisés Sécurité de l’IaC : Terraform, Bicep Intégration de contrôles automatisés et policy-as-code 🔹 Outils de sécurité Microsoft Microsoft Sentinel Defender for Cloud Microsoft Purview (DLP, classification, conformité) 🔹 Rôle de référent technique Interaction directe avec développeurs, data engineers, data scientists Capacité à apporter des réponses opérationnelles sur les risques IA : prompt injection data / model poisoning exfiltration de données escalade de privilèges via agents / LLM 📦 Livrables attendus Blueprints et architectures de sécurité GenAI sur Azure Configurations sécurisées des services IA (RBAC, policies, alertes, DLP…) Contribution aux analyses de risques et mesures de mitigation techniques Revue de code, IaC et pipelines CI/CD Mise en œuvre de contrôles automatisés Reporting technique : posture de sécurité, vulnérabilités, plans de remédiation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage en EI régime réel
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Cadeau reçu en micro-entreprise
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
314 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois