Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 305 résultats.
CDI

Offre d'emploi
Agent de traitement d'eau (H/F)

Publiée le

22k-30k €
Nantes, Pays de la Loire
Missions principales : -Réaliser des mesures et analyses pour garantir l'équilibre et la qualité de l'eau. - Surveiller et contrôler le fonctionnement des installations dédiées au traitement de l'eau. - Effectuer les ajustements correctifs nécessaires en cas d'écart. - Appliquer rigoureusement les règles d'hygiène et de sécurité. - Contribuer à l'entretien des équipements et à la prévention des dysfonctionnements. Une journée type : Vous commencez par vérifier l'état général des installations afin de vous assurer de leur bon fonctionnement. Vous réalisez ensuite différents contrôles de qualité de l'eau et consignez les résultats pour assurer un suivi fiable. Tout au long de votre intervention, vous ajustez les paramètres si besoin et veillez à ce que les équipements restent opérationnels. Avant de terminer, vous mettez à jour les relevés, signalez toute anomalie et préparez les informations utiles pour garantir la continuité du service.
Freelance

Mission freelance
Consultant Data SAS / SQL – Migration & Modèle Pivot – Contexte Épargne

Publiée le
ETL (Extract-transform-load)
SAS
SQL

2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de modernisation du système d’information épargne , nous recherchons un consultant data confirmé pour intervenir sur la construction et l’industrialisation d’un modèle de données Pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements existants sous SAS Enterprise et comprendre les flux de données en place Concevoir et faire évoluer le modèle de données Pivot servant de passerelle entre les systèmes source et cible Industrialiser et fiabiliser les traitements SAS pour garantir la qualité et la traçabilité des données Participer aux phases de tests unitaires, intégration et suivi des anomalies Rédiger la documentation technique (SFD, suivi de compteurs, rapports de traitement) Contribuer à la préparation et au passage des runs de migration
Freelance

Mission freelance
Dev back-end sénior (Java/Springboot) - H/F - 93

Publiée le
API REST
Java
RabbitMQ

1 an
Saint-Denis, Île-de-France
La mission consiste à participer activement à la mise en œuvre et à l’évolution d’une application nationale de gestion en temps réel, dans le cadre d’une refonte complète déjà planifiée pour 2026. Le projet présente un haut niveau de complexité, tant sur le plan fonctionnel que technique, en raison de son périmètre étendu et de son intégration avec de nombreux systèmes métiers stratégiques. L’architecture applicative, en cours de modernisation, repose sur plusieurs sources de données critiques, ce qui impose des exigences fortes en matière de performance et de fiabilité. Parallèlement, le prestataire devra également assurer la maintenance évolutive et corrective de la version actuelle de l’application, toujours en production, afin de garantir la continuité du service et le traitement des anomalies ou évolutions mineures. Ce contexte requiert une expertise technique confirmée en développement back-end. Objectifs de la mission Dans le prolongement du contexte précédemment décrit et des enjeux techniques identifiés, la mission vise à renforcer l’équipe de développement par l’intégration d’un développeur back-end senior. Ce renfort a pour but de garantir la réussite du plan de travail prévu pour 2026, incluant à la fois la refonte complète de l’application (version 2) et la maintenance opérationnelle de la version actuelle (version 1). Description détaillée des activités Le prestataire aura pour principales responsabilités de : Participer aux travaux d’architecture et aux décisions techniques dans le cadre de la refonte de l’application ; Contribuer à la compréhension et à la traduction des besoins fonctionnels en solutions techniques ; Réaliser les développements back-end nécessaires à la modernisation du code ; Garantir la qualité, la performance et la fiabilité du code produit ; Accompagner éventuellement un développeur junior dans le cadre d’un stage ou d’un appui technique ; Participer à la mise en place et à l’amélioration continue de la chaîne d’intégration et de déploiement ; Assurer la maintenance corrective et évolutive de la version actuelle de l’application.
Freelance

Mission freelance
Data Scientist - GenAI

Publiée le
Gitlab

18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE : Experinence : 5 ans et plus Métiers Fonctions : Data Management,Data Scientist, Spécialités technologiques : Big Data,genAI Compétences Technologies et Outils Docker genai Gitlab Fast API Python Git flow genai Méthodes / Normes Agile Langues Anglais MISSIONS Nous sommes actuellement à la recherche d'un Data Scientist. Notre client met en œuvre sa stratégie IA en soutenant différentes initiatives clés. Vous interviendrez sur l'un de ses projets phares. pour soutenir l'analyse des formulations, notamment l'analyse des tendances : Vos missions seront les suivantes : • Mettre en œuvre la révision et la numérisation du portefeuille de traités, en veillant à ce que tous les documents liés aux contrats (traités et polices) soient correctement convertis et gérés. • Mettre en œuvre des jumeaux numériques conformément au modèle de données établi, en garantissant une intégration et une cohérence parfaites des données. • Mettre en place et appliquer des contrôles rigoureux d'assurance qualité et de validation pour la saisie des données afin de maintenir des normes élevées d'intégrité des données. • Élaborer une documentation complète afin de rationaliser et de soutenir l'intégration des données dans les modèles de données analytiques du client Vous interviendrez sur un large scope de contrat. Vous livrerez du code et de la documentation conformément à la définition du travail terminé.
CDI
Freelance

Offre d'emploi
Développeur Fullstack Data Java / Python / SQL

Publiée le
Automatisation
CI/CD
Cloudera

3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
CDI

Offre d'emploi
Consultant Administrateur Applicatif BI / Data

Publiée le
Microsoft Power BI
Qlik Sense
Sap BO

Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance

Mission freelance
Business Analyst IT – Workflow bancaire

Publiée le
Agile Scrum
Back office
Postman

3 ans
400-500 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de ses équipes, la DSI d’un grand acteur bancaire recherche un Business Analyst IT pour intervenir au sein d’une squad agile dédiée aux workflows back-office . Contexte : Vous rejoignez une squad agile pluridisciplinaire (Product Owner, experts métiers, BA, ingénieurs software, Scrum Master, Tech Lead) dont l’objectif est d’optimiser les processus de traitement des dossiers clients via une solution de workflow performante et industrialisée. Le projet s’inscrit dans une migration d’un outil de workflow existant vers une nouvelle solution basée sur Camunda Vos missions Comprendre, analyser et formaliser les besoins métiers (back-office bancaire) Participer à la conception de la solution IT et à la rédaction des user stories Élaborer la stratégie de recette et structurer les phases de tests Rédiger et exécuter les scénarios et cas de tests Suivre les anomalies et produire les PV de recette Contribuer à l’ automatisation des tests Mettre à jour et garantir la qualité de la documentation fonctionnelle Participer aux rituels agiles et à la dynamique de la squad Accompagner les utilisateurs et contribuer à l’amélioration continue
Freelance

Mission freelance
[SCH] Expert Data SQL / SSIS – Support & Migration (Lyon) - 1044

Publiée le

10 mois
350-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de migration et d’industrialisation des procédures Data, la DSI recherche un expert SQL / SSIS pour intervenir en support des équipes techniques et garantir la qualité, la performance et la conformité des infrastructures livrées. L’environnement technique est orienté Microsoft Data Platform (SQL Server, SSIS) avec une composante Kubernetes pour le déploiement et la supervision des traitements. Missions principales : -Assurer le support Data sur les environnements MS SQL et SSIS. -Recetter les infrastructures livrées : contrôle des droits, circuits de livraison, performance et intégrité des traitements. -Collaborer avec les équipes Infrastructure et Métier pour identifier les besoins et garantir la cohérence des flux. -Participer à la migration des procédures dans un cadre industrialisé (“mode usine”). -Produire la documentation technique et fonctionnelle à destination des équipes de développement. -Contribuer à la qualité, la performance et la sécurité des environnements Data. Objectifs & livrables attendus : -Environnements SQL/SSIS validés et optimisés. -Documentation technique claire et complète pour les développeurs. -Plan de migration et de transformation industrialisé. -Reporting d’avancement et analyse des performances. Profil recherché : - >8 ans d’expérience en environnement Data Microsoft (SQL, SSIS). -Expertise en projets de migration et en industrialisation de procédures. -Solide maîtrise du développement et des tests SQL / SSIS. -Bonne compréhension des environnements Kubernetes (déploiement / supervision). -Connaissance Teradata appréciée. -Excellente aisance rédactionnelle et rigueur documentaire.
Freelance

Mission freelance
Architecte Data

Publiée le
Javascript

6 mois
580-700 €
Élancourt, Île-de-France
Télétravail partiel
1. Contexte du projet Le projet concerne une application de gestion prédictive des risques fournisseurs impactant la supply chain. Cette solution vise à : Naviguer parmi les données produits et fournisseurs pour identifier les éléments à risque. Détecter et alerter en cas d’événements susceptibles d’augmenter le niveau de risque. Simuler différents scénarios (rupture fournisseur, hausse de charge, etc.) afin d’en mesurer les impacts et de proposer des actions correctives. L’application, hébergée on-premise , s’appuie sur un logiciel COTS et un modèle de facturation basé sur les VCPU/h alloués . Les données intégrées proviennent de : ERP (SAP ECC : modules MM, PP, CO, SAP BW, Oracle E-Business Suite) Applications internes (achats, procurement, BI) Sources externes (fournisseurs de rang N, données marchés, etc.) Ces chargements nécessitent un travail approfondi de préparation, transformation, contrôle qualité et corrections manuelles avant intégration. Certaines données sont sensibles (C3 business sensitive – Export Control France non restreint) . 2. Compétences techniques et fonctionnelles requises Expertise en modélisation de données , particulièrement sur les domaines achats et industrie . Connaissance approfondie de : SAP ECC (MM, PP, CO), SAP BW , Oracle E-Business Suite Ivalua , Power BI , Excel Power Query Python (notebook) , JavaScript (console Web) , VS Code , SSMS , Shell Unix , PowerShell Plateforme C3AI (console et exploration de données) Capacité à analyser, fiabiliser et enrichir la donnée , avec une approche orientée qualité et amélioration continue. Prise en main et évaluation d’outils de Data Analysis . Compétences en architecture fonctionnelle et technique . Bon niveau d’anglais (oral et écrit). 3. Missions principales Intégration et préparation de nouvelles données Identifier les nouvelles sources de données et les besoins associés. Définir et piloter les extractions à réaliser depuis les systèmes sources. Préparer, transformer et contrôler la qualité des données avant intégration. Vérifier la cohérence du modèle de données choisi. Automatiser autant que possible les traitements d’intégration et de mise à jour. Mise à jour et supervision des environnements Assurer la mise à jour récurrente des données internes et externes. Surveiller le bon déroulement des simulations et recalculer les KPIs pour vérification. Identifier et corriger les anomalies de chargement ou de qualité. Maintenir la documentation complète des flux et traitements de données. Tests, qualité et support applicatif Contrôler la qualité des livraisons logicielles. Participer aux tests de non-régression et au maintien du jeu de données de référence . Analyser les erreurs d’exécution (UI, scripts JavaScript/C3). Vérifier la cohérence des KPIs et des résultats de simulation. Pilotage et coordination technique Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures et sources de données. Maintenir et intégrer le référentiel des fournisseurs de rang N. Suivre les déploiements applicatifs, upgrades, incidents et performance du run. Optimisation du runtime Suivre la consommation CPU/h via les dashboards internes. Comparer les mesures internes et éditeur, analyser les écarts. Optimiser l’allocation des ressources CPU/h en fonction de l’usage réel de la plateforme. 4. Profil recherché Expérience confirmée en architecture data , gestion de flux complexes et intégration de données hétérogènes . Aisance dans les environnements ERP et BI. Capacité à structurer, documenter et fiabiliser des processus data de bout en bout. Bon sens analytique, rigueur technique, autonomie et communication fluide avec des équipes pluridisciplinaires.
Freelance

Mission freelance
Data Engineer GCP - Rennes

Publiée le
Agile Scrum
Apache Airflow
BigQuery

12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Offre premium
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Ops Mainframe - Banque

Publiée le
BMC Remedy
CICS (Customer Information Control System)
IBM Db2

36 mois
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de projets stratégiques au sein d'une banque de renom, l’Ingénieur de Production Mainframe intervient sur le SI Assurance Vie , au sein d’une équipe études transverse en charge de la logistique de recette pour des projets à forts enjeux métiers. Le poste s’inscrit dans un environnement bancaire critique et réglementé, avec une forte coordination entre équipes applicatives, techniques, fournisseurs et maîtrise d’ouvrage. Objectifs de la mission : Assurer la stabilité, la disponibilité et la qualité des environnements de recette et de production ; Superviser le bon fonctionnement du Plan de Recette sur l’ensemble du SI concerné ; Garantir le maintien en conditions opérationnelles (MCO) des environnements Mainframe ; Assurer le suivi et la coordination des demandes via les outils internes, notamment THEMIS ; Contribuer à la réussite des projets transversaux SI Assurance Vie. Missions & Responsabilités : Coordonner les actions de mise en œuvre des environnements de recette (SI complet) et en assurer le maintien en conditions opérationnelles avec le concours des équipes techniques ; Superviser les traitements batch et temps réel , incluant l’ordonnancement et le suivi des flux ; Diagnostiquer, analyser et orienter la résolution des incidents et anomalies (N2/N3) ; Réceptionner, intégrer et qualifier les composants logiciels (développements internes, externalisés ou éditeurs) ; Assurer le suivi des composants via les outils de gestion de configuration , notamment : Composants z/OS (CCC) ; Référentiels de paramétrage applicatif ( DB2 ) ; Participer aux opérations de recette, aux mises en production et aux interventions opérationnelles fréquentes ; Veiller au respect des procédures d’exploitation, des normes de sécurité et des SLA ; Formaliser, documenter et maintenir les processus, méthodes et procédures d’exploitation ; Contribuer à l’ amélioration continue (fiabilisation, industrialisation, automatisation).
Freelance

Mission freelance
Consultant Data / Prism Q1-2026

Publiée le
Blue Prism

6 mois
400-610 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Contexte et Objectif Le projet Prism consiste à développer et maintenir une application de gestion proactive des risques fournisseurs pour la supply chain. L’objectif est de naviguer dans les données produits et fournisseurs pour identifier les risques, être alerté en cas d’événements critiques et simuler des scénarios (rupture fournisseur, hausse de volume) afin de proposer des actions correctives. Sources de données ERP (SAP ECC, Oracle E-Business Suite), plateformes e-Procurement, fichiers externes. Certaines données sont sensibles et soumises à des règles de contrôle à l’export. Missions principales Étudier et intégrer de nouvelles données dans l’application Prism. Définir, extraire, préparer et intégrer les données. Automatiser les traitements et assurer la mise à jour récurrente des données. Contrôler la qualité des livraisons éditeur et participer aux tests applicatifs. Maintenir le référentiel fournisseurs et préparer son intégration dans les plateformes de gestion achats. Piloter les prestataires et l’éditeur sur les déploiements, upgrades, incidents et suivi du run. Optimiser l’allocation des ressources (CPU/h) et suivre le runtime via dashboards. Découpage des tâches T1 : Ajout et intégration de nouvelles données. T2 : Mise à jour récurrente, extraction, chargement, analyse qualité. T3 : Documentation des traitements de données. T4 : Contrôle qualité, tests, gestion des erreurs et KPIs. T5 : Support à l’éditeur et à l’équipe technique. T6 : Maintenance du référentiel fournisseurs. T7 : Pilotage des déploiements et incidents. T8 : Suivi et optimisation du runtime via dashboards. Compétences requises Techniques : Modélisation de données achats/industrie, maîtrise de SAP ECC (MM, PP, CO), SAP BW, Oracle EBS, Ivalua, Power BI, Excel Power Query, Python, Javascript, Shell Unix, PowerShell, C3AI. Analyse : Amélioration de la qualité des données, architecture fonctionnelle et technique. Autres : Connaissance de l’environnement industriel et anglais professionnel. Livrables attendus Documentation sur les traitements de données. Fichiers de suivi du runtime et dashboards. Contraintes et exigences Employé d’une société de droit français. Signature d’un engagement de confidentialité. Respect des contraintes réglementaires liées aux données sensibles. Planning Début de la mission : 05/01/2026
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
305 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous