Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 181 résultats.
Freelance
CDI

Offre d'emploi
Expert Sécurité Cloud / CNAPP (Run & Gouvernance) — Secteur Média

AS INTERNATIONAL
Publiée le
Cybersécurité
KPI
Vulnerability management

3 ans
Île-de-France, France
Dans le cadre de la sécurisation et de l’industrialisation d’environnements Cloud public (AWS & GCP) , nous recherchons un(e) Expert(e) Sécurité Cloud pour travailler en lien étroit avec une équipe Cyber et les équipes en charge des Landing Zones . Vous accompagnerez la transformation DevOps & Cloud et la mise en place sécurisée de briques technologiques innovantes autour des architectures container , hybrides et cloud public , au service d’applications métiers en production. Vos missions (Run Sécurité Cloud) 1) Lutter contre les vulnérabilités Cloud Administrer une solution CNAPP (gestion des vulnérabilités, audits de configuration, comportements à risque) sur des environnements AWS/GCP. Assurer l’adoption de l’outil : documentation , formation , gestion des accès , amélioration continue, suivi des bugs et licences. Maintenir à jour les contrôles, politiques et procédures conformément aux standards de l’industrie. 2) Bâtir une gouvernance sécurité transverse Piloter les risques opérationnels détectés sur le périmètre par les outils de sécurité. Coordonner les parties prenantes : développement , SecOps , infra , référents sécurité. Produire des KPI de suivi de la sécurité opérationnelle (visibilité, confiance, pilotage). Suivre et valider la maturité et la conformité aux référentiels ( ISO , NIST , RGPD , IA Act ). 3) Accompagner les équipes techniques Animer des ateliers pour qualifier les vulnérabilités, répondre aux alertes et accélérer la remédiation. Contextualiser les vulnérabilités selon l’environnement, soutenir techniquement la résolution et promouvoir les bonnes pratiques cloud. Aider à l’affectation des vulnérabilités aux bonnes équipes (automatique et/ou manuel). Former développeurs et data scientists aux bonnes pratiques de sécurité . 4) Contribuer à la vie de l’équipe sécurité Analyser les risques projets, rédiger des expressions de besoins sécurité. Contribuer à la montée en compétence sécurité cloud des équipes et à une dynamique collaborative forte.
Freelance

Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)

Freelance.com
Publiée le
Merise

1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F

Comet
Publiée le
Azure
Bloomberg
IA

128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
Freelance
CDI
CDD

Offre d'emploi
Consultant Datastage (Luxembourg)

EXMC
Publiée le
IBM DataStage
Oracle

6 mois
Luxembourg
Le consultant intégrera l’équipe Data, qui a en charge la mise à disposition des données pour les différents consommateurs Data (BI, Data Scientists, équipes métiers, etc.). La mission est à réaliser en respectant les normes règlementaires et la gouvernance des données. Au sein de cette équipe le consultant interviendra dans le cadre du projet afin de participer à la conception et au développement des flux d’alimentations du nouveau Data Warehouse bancaire selon les normes et standards. Exemples non exhaustif de tâches à accomplir : · Analyser les besoins des équipes métiers · Concevoir des solutions robustes et optimisées et rédiger les spécifications techniques · Proposer une planification réaliste des travaux et livraisons · Développer les flux Datastage · Assurer la partie testing et support des métiers lors de la qualification · Documenter et déployer les solutions selon les normes · Assurer la maintenance, la qualité et les performances des solutions livrées · Travailler en étroite collaboration avec l’équipe projet (Data Engineers, équipes métiers, Chef de projet IT, Chef de projet Métier) · Assurer un reporting régulier sur l’état d’avancement des projets et tâches confiées · Identifier les risques et proposer des solutions pour respecter les délais et objectif Les qualifications requises sont : · Expérience d’au moins 10 ans dans le domaine de la Data · Maitrise avancée d’IBM Datastage (5 ans d’exp. minimum) · Une expérience confirmée sur des projets Data Warehouse en environnement bancaire ou financier · Fortes capacités analytiques et de résolution de problèmes · Solides connaissances en bases de données (Oracle, SQL Server, DB2) · Maitrise des techniques de modélisation des données (relationnelles, multidimensionnelles) · Aisance de communication · Facilité d’intégration et esprit d’équipe · Rigueur, autonomie et gestion des priorités · Sensibilité aux enjeux de qualité, traçabilité et gouvernance des données · Expérience avec les outils (Webfocus, Denodo, Dataiku, Power BI, Cloudera) est considérée comme un avantage
Freelance

Mission freelance
Chef de projet - Expérimenté Niort - 2 jours de télétravail

WorldWide People
Publiée le
Pilotage

12 mois
400-490 £GB
Niort, Nouvelle-Aquitaine
Chef de projet - Expérimenté Niort - 2 jours de télétravail PMO, relationnel En tant que Delivery Master DATA, coordonner et d'accompagner les équipes projets dans la livraison des initiatives Data. Un rôle central entre les équipes techniques, les chefs de projet, et les parties prenantes métiers. Vos missions incluront notamment : 0 - Rôle de PMO au sein du service : Suivi des budgets Saisies dans Clarity des collaborateurs 1 - Pilotage des projets Data : Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison). Coordonner les équipes multidisciplinaires (Data engineers, Data scientists, Product owners, etc.). Assurer le suivi des indicateurs clés de performance (KPI) et proposer des plans d’action corrective. 2 - Gestion de la qualité et des délais : Garantir la livraison des projets dans les délais impartis et selon les standards de qualité attendus. Superviser le respect des processus et bonnes pratiques en matière de gestion de données (Data Gouvernance, sécurité, conformité). 3 - Gestion Agile : Animer les cérémonies Agile (Daily Standups, Sprint Reviews, Retrospectives). Promouvoir une culture d’amélioration continue et de collaboration au sein des équipes. 4 - Communication et gestion des parties prenantes : Assurer une communication fluide entre les différentes parties prenantes (clients, équipes internes, fournisseurs). Préparer et animer les comités de suivi de projets (comités de pilotage, comités opérationnels). Gérer les attentes des clients et répondre aux demandes d’ajustement ou d’évolution des projets. 5 - Optimisation des processus : Identifier et mettre en place des actions d'amélioration des processus de livraison. Automatiser certaines tâches et optimiser les flux de travail pour augmenter l'efficacité opérationnelle.
Freelance

Mission freelance
Data Product Owner – Intermodal

LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA

1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Delivery Master

CAT-AMANIA
Publiée le
Microsoft Excel

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Freelance
CDI

Offre d'emploi
Product Owner IA Banque - LILLE (H/F)

STORM GROUP
Publiée le
AI
Chatbot
RAG

3 ans
54k-60k €
550-590 €
Lille, Hauts-de-France
• Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Freelance

Mission freelance
Développeur Full Stack Python / Angular – IA Générative

CAT-AMANIA
Publiée le
Angular
FastAPI
Git

2 ans
400-450 €
Île-de-France, France
Dans un contexte de forte proximité avec les métiers et d’ innovation rapide , vous rejoignez une équipe de développement transverse dédiée à la création de solutions digitales à forte valeur ajoutée. Cette équipe intervient en mode agile , avec une approche pragmatique et orientée résultats, pour concevoir rapidement des outils métiers, expérimenter de nouveaux usages autour de l’IA générative et accompagner leur industrialisation au sein du système d’information. Vous évoluez au sein d’une équipe pluridisciplinaire composée de développeurs full stack, data engineers, data scientists, tech leads et chef de projet, reconnue pour sa dynamique collective , son esprit d’entraide et sa culture de l’innovation. Vos missions En tant que développeur full stack, vous interviendrez sur un périmètre large et varié : Concevoir et développer des applications web de bout en bout , du besoin métier jusqu’à la mise en production Développer des interfaces web modernes et performantes en Angular, exploitant des traitements de données complexes Concevoir et implémenter des APIs robustes et performantes avec FastAPI Participer à la réalisation de POC et d’applications intégrant de l’IA générative Contribuer à la maintenance évolutive et au run des applications existantes Garantir la qualité du code via des tests unitaires et fonctionnels et le respect des bonnes pratiques Collaborer étroitement avec les équipes produit, design et les utilisateurs métiers Participer à la documentation et à l’amélioration continue des pratiques de développement Être force de proposition dans les réflexions techniques et les choix de solutions innovantes
Freelance
CDI

Offre d'emploi
Développeur Fullstack JavaScript – IA & Agents

OBJECTWARE
Publiée le
Javascript

3 ans
Île-de-France, France
Le bénéficiaire souhaite une prestation d’accompagnement en développement web full stack & DevOps Nous recherchons un développeur web Full Stack expert JavaScript / Node.js , intervenant sur des interfaces intranet à forte valeur ajoutée fonctionnelle et visuelle , dans un environnement cloud virtualisé Le projet vise la réconciliation des processus IT Production , des règles de gouvernance IT et des contrôles de risques majeurs , à travers une solution digitale et visuelle intégrée à un intranet IT Production . L’objectif est d’ accroître les performances d’analyse , la détection des écarts aux règles Groupe , et l’ alignement fonctionnel et opérationnel des processus IT Production. Tâches principales Participation aux choix techniques pour l’implémentation des besoins fonctionnels Rédaction des spécifications techniques (Intranet Web Node.js) Développement Web Full Stack sur intranet : Node.js, JavaScript HTML, CSS, SVG Bootstrap, jQuery API REST ORM Gestion de la base de données associée au projet : PostgreSQL SQL Gestion des phases d’homologation de la solution digitale (DevOps) Gestion de la mise en production de la solution développée (DevOps) Support technique sur la solution digitale en production Compétences IA & Agents (attendues ou appréciées) Dans une logique d’ innovation progressive , une sensibilité aux technologies IA est attendue, notamment sur : Compréhension des concepts d’IA appliquée aux outils IT : automatisation intelligente, analyse assistée, aide à la décision. Connaissances ou intérêt pour les agents logiciels / agents IA : agents d’analyse ou de contrôle automatisé, agents de détection d’écarts ou d’anomalies, orchestration de règles ou de workflows intelligents. Capacité à intégrer ou consommer des services IA via API (REST, microservices). Appétence pour l’ amélioration des performances d’analyse , la visualisation intelligente des données , et la simplification de l’expérience utilisateur grâce à des mécanismes semi-automatisés. Il ne s’agit pas d’un rôle de data scientist, mais d’un développeur full stack capable d’exploiter intelligemment des briques IA / agents dans une solution web orientée IT Production.
CDI

Offre d'emploi
Lead Data Engineer

ANDEMA
Publiée le
Python

60k-80k €
Paris, France
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Freelance

Mission freelance
Deep Learning Scientist

VISIAN
Publiée le
IA

2 ans
400-550 €
Île-de-France, France
Contexte L'équipe AI Contrôle Non Destructif travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes les lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. La mission sera d'une durée minimale de 6 mois. Compétences requises Vous avez suivi une formation en Software Engineering, en machine learning, en vision par ordinateur ou dans un domaine similaire. Vous disposez d'au moins 4 ans d'expérience professionnelle en machine learning / deep learning. Vous avez une bonne compréhension des techniques de deep learning et les avez appliquées sur de l'image. Vous avez de bonnes compétences en programmation Python, en particulier pour de la mise en production. En termes de méthodologie de travail, vous avez une expérience en environnement agile, sans pour autant en défendre une application dogmatique. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat. Mission Analyse de données sur un projet d'aide au contrôle industriel : analyse de base de donnée, visualisation des images, identification des facteurs significatif. Développer, entraîner et tester les algorithmes d'IA ou de computer vision qui répondent à des besoins clients précis et spécifiques. Implémenter des briques algorithmiques avec un niveau de qualité élevé (module réutilisable, respect de nos guidelines de code). Participer à des réunions projet pour cadrer le besoin client, présenter les résultats de l'algorithme et expliquer les solutions développées. Rédaction de rapport technique.
Freelance
CDI

Offre d'emploi
Senior Cloud Security Engineer – Azure / GenAI (H/F)

AVA2I
Publiée le
Microsoft Copilot Studio
Azure AI
CI/CD

3 ans
Île-de-France, France
Dans le cadre de programmes stratégiques autour de l’ IA de nouvelle génération (GenAI) , notre client grand compte du secteur bancaire renforce ses équipes avec un expert technique en cybersécurité et DevSecOps , très orienté mise en œuvre concrète des contrôles de sécurité sur Azure / Microsoft . Vous rejoignez une équipe internationale mature, déjà dotée de profils GRC et pilotage . 👉 Ce poste n’est pas un rôle de chef de projet ni de GRC : la valeur attendue est 100 % technique . 🎯 Priorité absolue : experts cyber capables de sécuriser des cas d’usage GenAI / LLM / agentiques en production , dans un contexte bancaire exigeant (sécurité, conformité, data sensible) . Vos missions (périmètre technique) Vous interviendrez en support technique avancé pour la sécurisation de la stack IA du client : 🔹 Sécurité des plateformes GenAI sur Azure Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Microsoft Fabric, Power Platform, M365 Intégrations data (ex : Snowflake) 🔹 Design & implémentation des contrôles de sécurité Identités & accès : RBAC, MFA, Conditional Access, PIM Sécurisation réseau et cloisonnement des environnements Sécurisation des endpoints et services IA 🔹 DevSecOps & Infrastructure as Code Mise en place et amélioration de pipelines CI/CD sécurisés Sécurité de l’IaC : Terraform, Bicep Intégration de contrôles automatisés et policy-as-code 🔹 Outils de sécurité Microsoft Microsoft Sentinel Defender for Cloud Microsoft Purview (DLP, classification, conformité) 🔹 Rôle de référent technique Interaction directe avec développeurs, data engineers, data scientists Capacité à apporter des réponses opérationnelles sur les risques IA : prompt injection data / model poisoning exfiltration de données escalade de privilèges via agents / LLM 📦 Livrables attendus Blueprints et architectures de sécurité GenAI sur Azure Configurations sécurisées des services IA (RBAC, policies, alertes, DLP…) Contribution aux analyses de risques et mesures de mitigation techniques Revue de code, IaC et pipelines CI/CD Mise en œuvre de contrôles automatisés Reporting technique : posture de sécurité, vulnérabilités, plans de remédiation

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

181 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous