Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 851 résultats.
Freelance

Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st

WorldWide People
Publiée le
DevSecOps

12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Freelance

Mission freelance
DevOps GCP Senior (3 jours/semaine) – Data Platform & Industrialisation

HOXTON PARTNERS
Publiée le
DevOps
Google Cloud Platform (GCP)

6 mois
Paris, France
Description de la mission : Nous recherchons un consultant DevOps GCP senior pour intervenir au sein d’une Data Factory orientée Digital Marketing. La mission s’inscrit dans un environnement data à fort enjeu, avec pour objectif de sourcer des données issues de plateformes Social & Marketing, interfacer des solutions SaaS de Data Connector avec une plateforme Data sur GCP, et industrialiser la création ainsi que le cycle de vie des connecteurs. Le consultant interviendra sur la structuration et l’industrialisation de l’infrastructure et des environnements, avec une forte composante automatisation et fiabilisation des déploiements. Responsabilités : Mettre en place et maintenir l’infrastructure via Terraform (Infrastructure as Code) Structurer et optimiser les pipelines CI/CD (GitHub Actions) Superviser les environnements via Cloud Logging et Cloud Monitoring Gérer la sécurité des accès (IAM, Secret Manager) Déployer et maintenir des services sur GKE et Cloud Run Contribuer à l’industrialisation des flux data et des connecteurs Participer à la rédaction de la documentation technique et fonctionnelle
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Freelance

Mission freelance
DATA ANALYST - Expert (>10 ans) F/H

SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy

24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
CDI

Offre d'emploi
Responsable Master Data (H/F) - 93

Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)

Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Freelance

Mission freelance
Data architect H/F

HAYS France
Publiée le

6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro, et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Reporting Risques : IRRBB, Liquidité, Trading, Contrepartie. Sources de données à intégrer : rapports Cognos, Standard & Poor's, Bloomberg, Fonds de pension, Liquidité intrajournalière. Compétences techniques : Azure Synapse Analytics, Azure Data Factory, SQL/ELT, Power BI, Purview, CI/CD. Tâches principales Définir, détailler et documenter l'architecture cible Risk Définir la liste et les caractéristiques des dataflows à mettre en œuvre Concevoir le modèle de données requis pour le reporting risques (IRRBB, Liquidité, etc.) afin de faciliter l'intégration dans WKFS RiskPro Définir les règles de transformation (haut niveau) Garantir l'application des standards Groupe (sécurité, gestion des données, etc.)
Freelance

Mission freelance
Expert Greeplum / Redis (H/F) - 79

Mindquest
Publiée le
PostgreSQL

1 mois
Niort, Nouvelle-Aquitaine
Je suis à la recherche pour mon client d'un expert Greenplum / REDIS pour renforcer ses équipes sur des missions d’administration et de développement autour des bases de données et de l’infrastructure associée. La mission s’inscrit dans un contexte technique mature avec des outils PostgreSQL, REDIS, et Greenplum, en garantissant la continuité opérationnelle et l’évolution des processus existants. Phase 1 : Administration et gestion des bases - Gestion des habilitations : création et gestion des comptes techniques et droits utilisateurs. - Refresh de données depuis sauvegarde (schéma / table vers dev, preprod ou prod) avec ptech et Python, adaptation du code existant si nécessaire. - Copies de données et création de sauvegardes : utilisation de fonctions pl/pgsql, modification de configurations YAML, paramétrage SQL. - Création ou décommissionnement de base / schéma : analyse d’impact et validation des droits après opérations. - Contribution aux PR et gestion du code via Git. Phase 2 : Maintien en conditions opérationnelles et développement - MCO GP7 : TNR des ptechs de la plateforme. - Développement et évolution de tout process existant : nouveaux outillages, correctifs, ou évolutions en ptech, pl/pgsql et Python. Contrat : Freelance Démarrage : ASAP Localisation : 79
Freelance

Mission freelance
Lead Developer

Codezys
Publiée le
.NET
.NET CORE
API

12 mois
370-450 €
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le recrutement d’un Lead Developer – Projets Stock et Facturation Dans le cadre du renforcement de ses équipes techniques, notre organisation recherche un Lead Developer expérimenté pour intervenir sur des projets stratégiques à forte complexité, principalement autour des services liés aux modules Stock et Facturation. Le Lead Developer travaillera en étroite collaboration avec le Product Manager, le Team Leader ainsi que l’ensemble des équipes de développement. Sa mission principale consistera à contribuer activement à la conception, à l’évolution et à l’optimisation de solutions microservices (.NET) ainsi que d’interfaces utilisateur front-end (React). Prestations à réaliser : Participer aux conceptions techniques et aux choix d’architecture : Analyse des besoins, définition des solutions techniques, validation des choix d’architecture pour assurer la fiabilité, la scalabilité et la performance des solutions. Développer, tester et maintenir les applications backend (.NET) et frontend (React) : Réalisation des développements conformément aux spécifications, mise en place de tests automatisés et manuels, maintenance évolutive et corrective. Améliorer et moderniser les API REST : Refactoring, optimisation, adoption de bonnes pratiques pour garantir la robustesse et la performance des interfaces API. Accompagner les développeurs sur les sujets techniques complexes : Expertise technique, mentorat, assistance lors des phases de développement les plus critiques. Garantir la qualité du code : Réalisation de revues de code (code review), application des bonnes pratiques de développement et de maintenance pour assurer la pérennité et la maintenabilité des solutions. Promouvoir les bonnes pratiques de développement et d’architecture : Partage des connaissances, établissement de standards, veille technologique pour une optimisation continue. Contribuer à l’amélioration continue des performances et de la qualité produit : Analyse des problématiques, proposition d’axes d’amélioration, suivi des indicateurs de performance. Ce poste requiert une expertise technique approfondie, une capacité à travailler en équipe pluridisciplinaire, ainsi qu'une forte implication dans la qualité et la performance des solutions développées. Les candidats intéressés sont invités à transmettre leur proposition détaillée, en conformité avec les exigences mentionnées dans le cahier des charges, avant la date limite de soumission mentionnée dans le dossier de consultation.
Freelance

Mission freelance
Backend Python AI Developer

Groupe Aptenia
Publiée le
Django
FastAPI
JSON Web Token (JWT)

6 mois
550-600 €
Paris, France
🔍 Nous recherchons un Développeur Backend Python expérimenté pour renforcer une équipe technique dans un environnement orienté API, intégration de systèmes et workflows métiers . 🎯 Vos missions principales ✅ Développement backend & APIs Conception et développement d’APIs avec FastAPI Structuration du code (clean architecture, modularité) Optimisation des performances et de la scalabilité ✅ Data & intégration systèmes Modélisation des données avec Pydantic (validation, robustesse) Intégration avec des systèmes métiers (APIs externes / internes) Développement de connecteurs et gestion des flux inter-applicatifs ✅ Sécurité & workflows métiers Mise en place de l’authentification (JWT, OAuth2) et gestion des droits Implémentation de logiques métier complexes et traitements asynchrones Mise en place de workflows (human-in-the-loop, orchestration type LangGraph en option)
Freelance

Mission freelance
Lead Data Analyst (H/F)

Cherry Pick
Publiée le
Databricks
Microsoft Power BI
Microstrategy

12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Lead Data Analyst(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine des mousquetaires. Description 🎯 Contexte de mission Dans le cadre du renforcement du DataLab , nous recherchons un Data Analyst Lead (prestation) rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution , multienseignes et multimétiers, avec de forts enjeux : Pilotage de la performance Qualité et fiabilité des données Modélisation transverse Usages analytiques à grande échelle ⚠️ Contrainte forte : remplacement d’un prestataire sortant 📍 Localisation : France – IDF 🎓 Séniorité : Expert (>10 ans) La connaissance opérationnelle de la Grande Distribution est impérative . 🚀 Missions principales et rôle 🧠 Expertise & Conception Data Apporter une expertise avancée en data analyse Concevoir et challenger des solutions data robustes Accompagner les équipes produits / projets sur des sujets analytiques complexes Garantir la cohérence des indicateurs et des modèles 📐 Modélisation & Structuration Contribuer activement à la modélisation des données Faire vivre et évoluer le modèle de données communes Définir les contrats d’interfaces Structurer et aligner les KPI métiers 👥 Leadership & Animation Contribuer à la montée en compétence des Data Analysts Animer la communauté Data (ateliers, bonnes pratiques, retours d’expérience) Coanimer la Data Authority en lien avec la Gouvernance des données 🚀 Mise en production & RUN Préparer les documents nécessaires aux MEP et au RUN Participer à la mise en place des outils de supervision Contribuer au transfert de compétences vers les équipes RUN Participer aux cérémonies agiles 🔍 Veille & Amélioration continue Assurer une veille technologique active Contribuer à la résolution d’incidents Promouvoir les bonnes pratiques de développement (sécurité, optimisation, documentation) 📊 Objectifs Apporter un leadership analytique au DataLab Structurer les indicateurs stratégiques métiers Améliorer la cohérence et la qualité des modèles de données Accélérer la maturité data dans un contexte Grande Distribution Sécuriser la continuité et la performance suite au remplacement du prestataire sortant 🛠️ Compétences requises 🔹 Hard Skills (Impératif) Expertise confirmée en data analyse Solide expérience en modélisation de données Conception de solutions data Connaissance confirmée de la Grande Distribution : Indicateurs clés (vente, marge, stock, approvisionnement, performance magasin) Enjeux business retail Compréhension des usages métiers de la donnée
Freelance

Mission freelance
Expert Marketplace / Product Data

Okara
Publiée le
Audit
E-commerce
Gestion des risques

3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
Freelance

Mission freelance
POT9006- Un Data Analyst Power BI confirmé sur Chécy.

Almatek
Publiée le
Microsoft Excel
PowerBI
SAS

6 mois
330-380 €
Chécy, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Data Analyst Power BI confirmé sur Chécy. Descriptif: Contexte de la mission Dans le cadre de la mise en place et de l’industrialisation de tableaux de bord décisionnels Power BI, le client recherche un Data Analyst Power BI confirmé pour accompagner les directions métiers dans la construction et le pilotage de leurs indicateurs stratégiques. La mission s’inscrit dans un contexte assurance , avec des enjeux forts de compréhension métier, de structuration de la donnée et d’aide à la décision au niveau Direction Générale. Objectifs de la mission: Concevoir, développer et maintenir des tableaux de bord Power BI à destination de la Direction Générale Accompagner les métiers dans la transformation de leurs usages historiques (Excel, SAS) vers une logique Power BI plus industrialisée Structurer la démarche décisionnelle et garantir la cohérence des indicateurs Périmètre fonctionnel: Les tableaux de bord concernent notamment : Direction Générale Direction des Offres Direction Commerciale Direction Marketing Activités principales: Capacité à s’asseoir avec les métiers, comprendre leurs besoins et leurs usages actuels Accompagnement au changement : expliquer pourquoi une logique Excel / SAS ne peut pas être transposée telle quelle dans Power BI Définition de la logique de données et des indicateurs Rédaction de notes de cadrage, validation avec les métiers Conception et développement des rapports Power BI Mise en production et assurance du RUN (maintien, évolutions, fiabilité des dashboards) Profil recherché: Data Analyst Power BI confirmé Minimum 5/7 ans d’expérience sur des projets décisionnels Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation
CDI

Offre d'emploi
BA DATA sur profil (CDI uniquement) - Préavis 1-3 mois

OBJECTWARE
Publiée le
ETL (Extract-transform-load)
Oracle
PL/SQL

Nanterre, Île-de-France
GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients. BA DATA - Oracle, SQL, PL-SQL (très présent) -Clarity (pas obligatoire) Controle M / ETL / UNIX .. Rémunération selon le profil, début de mission en JUIN donc préavis de 1 à 3 mois accepté. CDI Uniquement Contexte de la mission : La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" : Les Bases Commerciales (BCA-BCB-BCC) Interfaces Délégataires Préparation éditique Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Détails de la prestation : Contribution au projet « IRF » ( I mprimé R èglementaire et F iscal) : Le projet IRF à vocation envoyer chaque année aux clients concernés les courriers IA, IFU et IFI. Sur notre application « Préparation Editique » : qui est le pôle d’échange centralisé d’agrégation et transformation des données avant envoi à l’application d’édition des courriers (Optima) Sur notre périmètre (Préparation éditique) : - Gestion de projet : planification (Clarity), estimation des charges, gestion du budget, reporting, suivi des travaux, coordination, participation au COPROJ, suivi des alertes/risques/problèmes - Participation active (avec le métier) à la compréhension et transposition des besoins et règles métiers en solution IT - Recueil des besoins, définition de la solution, contribution aux aspects architecture et sécurité, rédaction des spécifications fonctionnelle / exigences, expertise applicative - Commande et pilotage des travaux de développement (Réception et validation des développements via une phase de vérification applicative), - Participation à la stratégie de tests, - Participation à la phase de recette en relation avec le centre de test Cardif, - Préparation, organisation du déploiement et mise en production, - Suivi et coaching des ressources techniques (forfaits, équipes transverses ...) Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - UNIX - Ordonnanceur Control-M - CFT - Informatica Powercenter (très limité sur l’IRF -> donc optionnel mais toujours apprécié si jamais …) - GIT (Toolchain) Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : architectes, développeurs, experts, centre de test, exploitant … Ce qui fera la différence : Les Soft Skills de la personne 👍 Compétences Outils : Clarity serait apprécié Compétences méthodologiques : Agile (at Scale)
Freelance

Mission freelance
Facilitateur SAFe Niort - coordination ou pilotage multi‑équipes, Méthodes Agile/be

WorldWide People
Publiée le
Safe

12 mois
400-450 €
Niort, Nouvelle-Aquitaine
Facilitateur SAFe Niort 01/04/2026 2 ans coordination ou pilotage multi‑équipes, Méthodes Agile, SAFe, La mission nécessite une forte capacité à faciliter, fédérer et structurer les échanges dans un contexte agile, ainsi qu’une expérience confirmée dans la coordination d’équipes et l’accompagnement des pratiques SAFe. Niort (3 jours sur site) coordination ou pilotage multi‑équipes, Méthodes Agile, SAFe, Le facilitateur SAFe interviendra sur un périmètre de coordination multi‑équipes afin de garantir la bonne exécution du train agile, la fluidité des échanges et la cohérence des priorités. Son rôle sera d’organiser les temps forts du train, de lever les obstacles, d’assurer la visibilité sur l’avancement et de favoriser un fonctionnement collectif efficace. Il produira plusieurs livrables structurants : • les éléments de pilotage et de suivi du train (avancement, risques, dépendances) ; • les comptes rendus des cérémonies et ateliers de coordination ; • les supports d’amélioration continue et les plans d’action ; • la documentation liée aux pratiques et cadences SAFe. La mission nécessite une forte capacité à faciliter, fédérer et structurer les échanges dans un contexte agile, ainsi qu’une expérience confirmée dans la coordination d’équipes et l’accompagnement des pratiques SAFe.
Freelance

Mission freelance
Data Product Manager – Programme S/4HANA

Comet
Publiée le
SAP S/4HANA

1 an
400-600 €
France
Contexte de la mission Dans le cadre de la migration stratégique de SAP ECC vers S/4HANA , notre client du secteur industriel engage une transformation majeure de son modèle Data & Reporting. Le Data Product Manager interviendra sur le stream Data & Visualization afin de : Concevoir un nouveau Data & Report Model basé sur S/4HANA Évaluer les impacts sur les systèmes Legacy Accompagner les métiers dans la définition de leur stratégie de reporting Structurer une approche Data as a Service Missions principalesCadrage & Pilotage Organiser et structurer l’étude Data & Reporting Recueillir les besoins métiers (workshops, interviews) Comprendre les ambitions business et enjeux stratégiques Formaliser les recommandations “Go to Project” Architecture & Modélisation Documenter l’architecture fonctionnelle cible Concevoir les modèles de données (Business Layer / Silver Layer) Définir les flux data du ERP jusqu’à la visualisation Évaluer les impacts sur les systèmes existants Coordination & Delivery Piloter les contributeurs Data (Architecte, Data Engineers, BI Engineers) Structurer le modèle Data as a Service Préparer planning & budget Build/Run Documenter la valeur de la solution Compétences attenduesTechniques Expertise en Data Modeling Forte maîtrise des environnements ERP (SAP idéalement) Solide compréhension du cycle de vie de la donnée (ERP → DWH → BI) SQL avancé Power BI (niveau confirmé minimum) Analyse & exploration de données Fonctionnelles Expérience en transformation S/4HANA Animation d’ateliers métiers Capacité à traduire des besoins business en modèle data Vision produit / approche Data Product Soft skills Excellente communication (français & anglais) Leadership transverse Organisation & structuration Orientation client forte
Freelance

Mission freelance
[FBO] Ingénieur de production - Niort - 1328

ISUPPLIER
Publiée le

9 mois
250-350 €
Niort, Nouvelle-Aquitaine
Profil recherché - Expérience : 5 à 7 ans en production / exploitation / intégration avec forte dominante batch/ordonnancement. - Très bonne maîtrise de Control-M (et/ou VTOM) : intégration, dépendances, calendriers, diagnostic. - Solides compétences en PowerShell et Shell (automatisation, exploitation). - Bonne pratique de Jenkins (pipelines, jobs, triggers, intégrations). - Capacité à développer des scripts/outils en Python pour industrialiser et fiabiliser. - Qualités attendues : rigueur, sens du service, autonomie, communication claire en situation d’incident, esprit d’amélioration continue. Environnement technique Ordonnanceurs : Control-M, VTOM Scripting : PowerShell, Shell (bash/ksh) CI/CD : Jenkins Développement : Python Contexte : production, batch, exploitation, supervision, industrialisation
2851 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous