Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality
Votre recherche renvoie 77 résultats.
Mission freelance
Expert Téléphonie, Excel & Pilotage de Flux (KPI)
STHREE SAS pour HUXLEY
Publiée le
6 mois
500 €
France
📣 Consultant Téléphonie & Pilotage de Flux (KPI) - Grand acteur assurantiel - Mission 3/4 mois (Freelance/ESN/ portage salarial) 📍 Paris + déplacements ponctuels site prestataire - Bourgogne | 🗓️ Démarrage ASAP - S1 2026 ⏱️ Charge : 1 personne à temps plein (≈ 5 j/sem. cumulés) | 🌐 1 jour de télétravail/sem. possible Le contexte Grand acteur assurantiel recherche un(e) consultant(e) pour accélérer sa Roadmap Téléphonie 2026 : fiabiliser le pilotage, améliorer les performances opérationnelles et optimiser l'expérience adhérent/client. 🎯 Votre mission 1) Refonte KPI & Excel (socle de pilotage - T2 2026) Audit de l'existant (sources, calculs, fiabilité) Rebuild d'un fichier Excel robuste, simple, industrialisable KPI clés : taux de décroché (🎯 90%) , productivité individuelle (appels/mails/chats/actes), satisfaction à chaud , suivi détaillé des flux Livrables : fichier Excel opérationnel + guide d'utilisation 2) Téléphonie "Apporteurs" - benchmark & plan d'actions Consolidation des constats, analyse des irritants & impacts Chiffrage des actions (organisation, process, outils, pilotage) Animation transverse & suivi mensuel/bimensuel Livrables : constats consolidés, plan d'actions priorisé , reporting d'avancement 3) Téléphonie "Adhérents" - pilotage prestataire Stabilisation post-réorg (urgent) : priorisation des appels, prévisions & dimensionnement Revue des indicateurs COPIL (motifs d'appels, appels non pris en compte) Revisite des fondamentaux : SVI/parcours, scripts & techniques agents, formation/QA, enquêtes à chaud/a posteriori, conformité des enregistrements Livrables : comptes rendus, synthèse des axes, propositions d'amélioration , indicateurs de suivi 🧩 Profil recherché Consultant(e) senior Téléphonie / Pilotage de flux (centre de contacts, relation clients/adhérents) Maîtrise avancée d'Excel & KPI (modélisation, automatisation légère, data quality) Expérience en audit opérationnel & plans d'actions À l'aise avec le pilotage de prestataires (centres externalisés/BPO) Esprit collaboratif, travail en binôme avec managers internes ✅ Option : 2 profils (1 Excel/KPI + 1 Pilotage Téléphonie/Prestataire ) pour paralléliser 📌 Modalités Durée : 3 à 4 mois (S1 2026, ajustable) Charge : jusqu'à 1 ETP (≈ 5 j/sem. cumulés) Présence : réunions internes obligatoires(Paris) + déplacements ponctuels chez le prestataire (Bourgogne) Langue : français (anglais apprécié) 📦 Livrables clés Audit du fichier d'indicateurs Nouveau fichier Excel fiabilisé + méthodo/guide Benchmark consolidé + plan d'actions priorisé Reporting régulier de mise en œuvre Synthèses & recommandations finales côté prestataire
Mission freelance
Directeur de projet / Chef de projet IT – eInvoicing
LINKWAY
Publiée le
API
Confluence
E-reporting
1 an
500-650 €
Île-de-France, France
Nous recherchons un Directeur de projet / Chef de projet IT Senior spécialisé dans l' eInvoicing . Ce rôle stratégique s'articule autour de deux verticales métier distinctes au sein du groupe : la branche Shipping (Périmètre Monde) et la branche Média (Périmètre France) . Sous la responsabilité de la DSI Groupe et en étroite collaboration avec les directions financières, vous piloterez le déploiement des solutions de facturation électronique. Vous agirez en tant que véritable chef d'orchestre pour garantir la conformité, l'interopérabilité et l'adoption des nouveaux processus. Pilotage Stratégique et Cadrage : Définir la feuille de route globale du projet eInvoicing pour les deux entités, en tenant compte des spécificités réglementaires françaises (PPF, PDP, OD) et des contraintes internationales (CTC, post-audit) pour la partie Shipping. Valider les architectures cibles en collaboration avec les architectes d'entreprise et les experts sécurité. Arbitrer les choix de solutions (Plateformes de Dématérialisation Partenaires - PDP) et structurer les budgets associés. Gestion Opérationnelle et Coordination IT : Coordonner l'ensemble des chantiers techniques : adaptation des ERP (SAP, Oracle, ou solutions métier spécifiques média/transport), mise en place des flux EDI/API, et gestion des formats structurés (Factur-X, UBL, CII). Superviser les phases de spécifications fonctionnelles et techniques, en assurant l'alignement entre les besoins métiers (Finance/Comptabilité) et les capacités IT. Piloter les intégrateurs et les éditeurs de logiciels tiers, en veillant au respect des engagements de service (SLA) et des délais de livraison. Mettre en place une gouvernance rigoureuse : animation des comités de projet et de pilotage (Copil), suivi des risques, gestion des alertes et reporting d'avancement auprès du Top Management. Déploiement et Gestion du Changement : Organiser et superviser les phases de recettes (UAT) et de marche à blanc avant le basculement en production. Assurer la transition progressive des flux factures (Entrants et Sortants) ainsi que des données de e-Reporting vers les nouvelles plateformes. Accompagner les équipes métiers (comptables, contrôleurs de gestion, administration des ventes) à travers des plans de formation et de communication adaptés. Gérer la relation avec les tiers (fournisseurs et clients majeurs) pour assurer l'onboarding sur les nouvelles plateformes d'échange. Spécificités des Pôles : Pour le Shipping Monde : Vous devrez gérer une complexité multi-pays, harmoniser les processus de facturation inter-compagnies (Interco) et vous assurer de la conformité avec les réglementations locales hors France. Pour le Média France : Vous adresserez des volumétries spécifiques et des cycles de facturation publicitaire complexes, nécessitant une grande rigueur sur la data quality.
Mission freelance
Consultant Fonctionnel Finance Projet réglementaire BIDS
STHREE SAS pour HUXLEY
Publiée le
6 mois
500 €
France
Contexte & objectifs Grand groupe bancaire français - programme réglementaire Bail‑In Data Set (BIDS) et mise en œuvre de la guidance MBDT . L'enjeu : produire, à la demande du régulateur, une extraction complète et fiable des données de passif à l'échelle du Groupe, avec impacts possibles sur les processus opérationnels et les échanges de données des établissements. Périmètre & rattachement Intégration au sein d'une équipe Projet Usages Finance & Risque (Direction Architecture & Reporting / Pôle Finance & Stratégie), en interaction étroite avec les équipes Résilience Financière et les DSI /établissements contributeurs. Missions principales1) Déclinaison opérationnelle BIDS au format MBDT Organisation des recettes (stratégie de tests, jeux de données, planification). Exécution des recettes avec les métiers ; PV et critères d'acceptation . Analyse de la qualité des données (complétude, exactitude, cohérences inter‑sources) avec les communautés et leurs DSI. Suivi des anomalies et pilotage des plans d'actions. Ateliers de restitution et synthèses (comités d'avancement). 2) Analyse & exigences / data & process Ateliers de mûrissement multi‑parties prenantes (établissements, SI remettants, tribus data). Cadrage peuplement / disponibilité / qualité des données. Rédaction de spécifications complémentaires (règles de gestion, mapping, contrôles, critères d'acceptation). 3) Contrôles comptables & financiers (missions intercalaires) Prise de connaissance des processus de production comptable & financière. Évaluation des contrôles 1er niveau existants. Définition et déploiement de contrôles 2nd niveau (programmes de contrôle, evidence, suivi). Constitution des livrables : fiches/dossiers de contrôle , flowcharts de production, notes de synthèse . Livrables attendus Stratégie de recette, plans de tests, PV de recette, registre d'anomalies & plans d'actions. Analyses de qualité de données (règles, seuils, scoring, plan d'assainissement). Spécifications complémentaires (règles de gestion, mapping BIDS/MBDT, critères d'acceptation). Livrables de contrôle 2nd niveau (fiches, dossiers, flowcharts) et notes de synthèse aux comités. Profil recherché Séniorité : 9+ ans en MOA/Métier Finance/Risque dans la banque. Opérations financières : solide compréhension de la modélisation (titres, repo , dérivés , collatéral). Reporting réglementaire d'établissements de crédit (culture prudentielle, interactions métiers/DSI). Fortes compétences en recette/UAT , data quality, gestion d'anomalies, restitution aux comités. Aisance en rédaction (spécifications, notes, PV), animation d'ateliers , coordination multi‑acteurs. Soft skills Rigueur et sens du contrôle, esprit de synthèse, pédagogie, leadership transverse, autonomie, orientation résultats.
Offre d'emploi
Consultant(e) DATAIKU DSS
Hexateam
Publiée le
Dataiku
MySQL
Python
Île-de-France, France
Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Mission freelance
Senior Data Engineer GCP
Groupe Aptenia
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Offre d'emploi
Consultant Data Gouvernance sur Paris 12
EterniTech
Publiée le
Cloudera
Microsoft Power BI
SAS
2 ans
75560 CEDEX 12, Paris, Île-de-France
Je recherche pour un de mes clients un Consultant Data Gouvernance sur Paris 12 CONTEXTE DE LA MISSION Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée du client (3 salariés à ce jour) souhaite renforcer son équipe d'un profil confirmé en la matière. Le client recherche donc à apporter à l'équipe Gouvernance de la donnée un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans de ses missions : définition des politiques de gestion des données (rôles et responsabilités; mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; modalités de suivi de la qualité des données; modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; articulation avec les capacités de la plate-forme Data choisie par l'entreprise); mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; etc..... DESCRIPTION DE LA MISSION Les missions principales au sein de l'activité Gouvernance de la donnée seront les suivantes : - Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées ; échanges en cours) - Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire ; - Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… - Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. - Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). - Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. - Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables attendus : Chapitres thématiques de la politique de Gouvernance des données : - rôles et responsabilités ; - gestion Glossaire/Dictionnaire ; - gestion du Data Lineage ; - sécurité et droits d'accès, dont conformité juridique ; - Suivi de la qualité des données ; - process permettant l'évolution de la plate-forme Data Environnement technique : Sélection en cours du fournisseur pour une plateforme Data d’entreprise cible Couche stockage : - Teradata - Hadoopa Cloudera - Postgre Transformation : - Data stage - Spark BI : - Power BI - SAS Expériences attendues : - Expérience au sein d'un Data Office en charge de la Gouvernance des données (au moins 2 expériences significatives) - Utilisation des outils de Gouvernance des données (gestion des méta données, dont Glossaire / Dictionnaire, Catalogage, Création/Exposition de Data Product, Data Quality, Lineage) - Compréhension des grands modèles d'Architecture Data (Extraction/Chargement, Transformation/Nettoyage, Mise à disposition, Suivi des usages) - Pratique d'une solution Plate-Forme Data
Mission freelance
INGENIEUR MLOps
HAYS France
Publiée le
Ansible
Apache Airflow
Cloud
3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Mission freelance
SRE - Site Reliability Engineer
Comet
Publiée le
AWS Cloud
Azure
Site Reliability Engineering (SRE)
218 jours
370-830 €
Île-de-France, France
Bonjour à tous les SRE ☁️ / Observabilité 📊 / Cloud & Resilience 🚀 ! Rejoins une équipe innovante qui garantit la fiabilité et la résilience des plateformes digitales critiques utilisées dans le monde entier. L’équipe Site Reliability Engineering accompagne les divisions applicatives pour améliorer la fiabilité, la surveillance et la résilience des produits digitaux. 🔎 Je cherche donc un/-e SRE expérimenté/-e pour participer à un projet ambitieux et technique. 💻 Ce que tu vas faire : Définir et implémenter des mécanismes de monitoring et alerting à tous les niveaux (front, back, ETL, data quality, connectivité) Contribuer à la résilience des applications via backup/restauration, Disaster Recovery Plans et tests associés Implémenter des scénarios de Chaos Engineering sur AWS et Azure Optimiser la gestion des incidents pour réduire le MTTR (détection, notification, analyse) Mettre en place des solutions AIOps pour améliorer observabilité et fiabilité Promouvoir les bonnes pratiques SRE auprès des squads et projets digitaux 🎯 Stack & outils : AWS (Prometheus, Cloudwatch, X-Ray, Firewall), Azure (Monitor, Application Insights, Log Analytics), GCP Observability, Grafana, Chaos Engineering, pipelines CI/CD, automatisation des backups, AIOps 📍 IDF – Paris 2e (Sentier) : 2 jours de télétravail 🏠 Si tu as une solide expérience en SRE, cloud multi-plateformes (AWS, Azure, GCP) et observabilité, et que tu aimes rendre les systèmes robustes et résilients, cette mission est faite pour toi !
Mission freelance
Data Ingénieur
STHREE SAS pour HUXLEY
Publiée le
18 mois
500 €
France
Le rôle du Data Engineer dans ce projet consistera à : * Concevoir et implémenter les composants/pipelines d'ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) * Traiter et normaliser les données * Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) * Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud * Distribuer les données aux différents consommateurs/Métiers * Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog * Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) * Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … * Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données * Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. * Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
Site Reliability Engineer
Codezys
Publiée le
Ansible
Azure
Git
12 mois
Paris, France
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Mission freelance
Data Analyst Senior -Talent Development H/F/NB
Comet
Publiée le
Looker Studio
Tableau software
60 jours
400-580 €
Villeneuve-d'Ascq, Hauts-de-France
Vous êtes Data Analyst senior avec une forte sensibilité business et data quality ? Vous aimez transformer des données hétérogènes en outils de pilotage fiables et décisionnels ? Cette mission est faite pour vous 🎯 🧩 Contexte de la mission Dans un environnement international et orienté Talent Development , la mission vise à valoriser les données RH (formation, audits, référentiels…) afin d’éclairer la prise de décision stratégique . Vous interviendrez sur un projet existant , au sein d’une équipe data & métiers, avec un rôle hybride : Business Analyst pour comprendre et formaliser les besoins Data Analyst / Data Specialist pour structurer, consolider et fiabiliser les flux de données multi-pays 🎯 Objectifs de la mission Garantir la qualité, la cohérence et la fiabilité des données Concevoir des modèles de données standardisés Alimenter et optimiser des tableaux de bord décisionnels Faciliter l’exploitation des données par les équipes métiers 🛠️ Responsabilités principales Analyse & Modélisation Concevoir des modèles de données plats (CSV) à partir de sources multiples Définir les règles de transformation, d’agrégation et de mapping Reporting & Data Visualisation Alimenter et optimiser des tableaux de bord (Looker / Tableau) Garantir la pertinence des indicateurs de pilotage Consolidation internationale Collecter, contrôler et harmoniser des données issues de plusieurs pays Gérer les problématiques de formats, UUID et standards de données Qualité & Documentation Mettre en place des contrôles qualité (audit, nettoyage, cohérence) Documenter les règles de gestion, mappings et processus data Approche analytique Traduire les enjeux métiers en analyses claires Produire des recommandations actionnables
Mission freelance
Workday Data Lead
INVESTIGO
Publiée le
600-700 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Data Lead to oversee all data-related activities for a greenfield Workday implementation covering HCM, Financials (FINS), and Professional Services Automation (PSA). The role will be accountable for defining and delivering the end-to-end data strategy, ensuring data quality, integrity, and overall readiness across all Workday modules. Working closely with functional leads, reporting, integrations, security teams, and business stakeholders, the Data Lead will provide leadership across data conversion, validation, testing, and go-live phases of the programme. Required Skills & Experience Proven experience operating as a Workday Data Lead or Senior Data Manager on large-scale Workday implementations. Strong hands-on expertise across Workday HCM, Workday Financials, and Workday Professional Services Automation (PSA). Demonstrated experience delivering greenfield Workday implementations from initiation through go-live. Deep understanding of Workday data models, data governance, and data conversion strategies. Strong leadership, communication, and stakeholder management capabilities. Experience identifying, managing, and mitigating data-related risks within complex, multi-stream programmes. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Mission freelance
Spécialiste EDI & Supply Chain (H/F)
LINKWAY
Publiée le
ERP
ETL (Extract-transform-load)
JSON
8 mois
Poissy, Île-de-France
Nous recherchons pour le compte de notre client, un géant industriel de renommée mondiale opérant dans le secteur automobile, un Spécialiste EDI intégré à l'équipe Supply Chain . Dans un contexte de transformation digitale et d'exigence opérationnelle élevée, ce rôle est central pour garantir la fluidité des opérations logistiques et industrielles du groupe. En tant que Spécialiste EDI, votre mission principale sera de piloter, concevoir et optimiser les flux de données qui constituent le système nerveux de la chaîne d'approvisionnement. Vous agirez comme le garant de l'interopérabilité entre les systèmes d'information internes de l'entreprise et ceux de son vaste écosystème de partenaires externes (fournisseurs de rang 1 et 2, clients, prestataires logistiques). Votre intervention assure que chaque pièce, chaque commande et chaque avis d'expédition soit transmis de manière fiable, rapide et conforme. Vos responsabilités s'articuleront autour de plusieurs axes stratégiques et opérationnels : Conception et Architecture des Flux : Vous serez en charge de l'implémentation de nouvelles solutions EDI. Cela implique d'analyser les besoins métiers, de définir les spécifications techniques et de configurer les processus d'intégration aux systèmes ERP et WMS internes. Vous devrez traduire des besoins logistiques complexes en solutions techniques robustes. Développement et Maintenance des Mappings : Cœur technique du métier, vous développerez et maintiendrez les "mappings" (traductions) entre les formats pivots de l'entreprise et les standards internationaux. Vous devrez assurer la conversion fluide des données, quelle que soit la diversité des systèmes utilisés par les partenaires. Pilotage de la Conformité et Standards : Le secteur automobile étant hautement normé, vous veillerez au respect scrupuleux des protocoles et standards en vigueur, notamment Odette, Galia, Teccom et Edifact . Vous serez le référent technique pour valider que les échanges respectent ces normes strictes, garantissant ainsi une compréhension universelle des données échangées. Gestion Opérationnelle et Support : Au quotidien, vous surveillerez les transactions EDI via des outils de monitoring avancés. Votre rôle sera de diagnostiquer proactivement les incidents (rejets, erreurs de syntaxe, problèmes de connexion) et de les résoudre rapidement pour minimiser l'impact sur la production ou la livraison. Vous apporterez également un support de niveau expert aux utilisateurs internes. Optimisation Continue : Au-delà de la maintenance, vous analyserez les workflows existants pour identifier des goulots d'étranglement ou des sources d'erreurs récurrentes. Vous proposerez des optimisations pour automatiser davantage les processus, réduire les interventions manuelles et améliorer la qualité globale des données (Data Quality). Documentation et Formation : Vous produirez une documentation technique et fonctionnelle précise (guides de mappings, spécifications de flux) et assurerez la montée en compétence des équipes internes à travers des sessions de formation et de transfert de connaissances.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
77 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois