L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 615 résultats.
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
PROPULSE IT
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Product Owner Data (H/F)
LeHibou
Publiée le
Méthode Agile
Product management
3 mois
400-500 €
Toulouse, Occitanie
Notre client dans le secteur Conseil et audit recherche un/une Product Owner Data H/F Description de la mission : Nous recherchons un Product Owner disponible dès que possible , pour une mission à 100% , avec un engagement a minima jusqu’à juillet (renouvelable sur l’année). Détail des activités : Requis mission: 0 = exigence faible ; 1 = exigence modérée; 2 = exigence élevée Requis (0-2) - Définir et/ou affiner la vision produit, le backlog et la roadmap en cohérence avec la vision du programme et du portefeuille : 2 - Collaborer avec l’écosystème des Product Owners afin de maintenir un backlog à jour, mature et priorisé, prêt pour le PI Planning et chaque itération du PI : 2 - Collaborer avec les architectes du train et les équipes de développement pour identifier la dette technique, évaluer ses impacts et anticiper les surcoûts : 2 - Préparer et contribuer activement à l’ensemble des cérémonies Scrum et ART : 1 - Tester et valider les User Stories afin de s’assurer qu’elles respectent les critères d’acceptation et la Definition of Done : 2 - Analyser et prioriser les anomalies et les demandes utilisateurs afin de les intégrer au backlog produit : 2 - Produire et maintenir une documentation produit claire et à jour (fonctionnelle et technique) : 1 - Préparer et diffuser les communications produit (release notes, user guides..) : 1 - Suivre l’usage, la valeur délivrée et les retours utilisateurs pour ajuster les priorités : 1
Mission freelance
Product Owner Data (H/F)
Freelance.com
Publiée le
Business Object
Gherkin
Google Cloud Platform (GCP)
3 ans
400-590 €
Maisons-Alfort, Île-de-France
Dans le cadre d’une équipe Data / BI dédiée aux besoins de reporting, infocentres et valorisation de la donnée, nous recherchons un Product Owner Data expérimenté . Le poste s’inscrit dans un environnement Agile à l’échelle, avec une forte interaction entre les équipes métier, data et IT. Le Product Owner sera responsable du pilotage fonctionnel et de la priorisation des besoins produits autour de la donnée , avec pour principales missions : porter la vision produit et contribuer à son exécution ; participer à l’ exploration continue des besoins ; définir, rédiger et prioriser les features et user stories ; gérer et animer le backlog produit ; contribuer à la stratégie de tests, recette et validation fonctionnelle ; accompagner les utilisateurs dans la conduite du changement ; assurer un reporting régulier auprès des parties prenantes ; participer à la gestion des incidents de production ; collaborer étroitement avec les équipes techniques, architectes, Scrum Master et responsables de train Agile. Le poste couvre l’ensemble du cycle projet : cadrage fonctionnel ; conception ; recette ; automatisation des tests ; déploiement ; support utilisateur ; amélioration continue.
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Offre d'emploi
Data Analyste
OCTOGONE
Publiée le
Data analysis
1 an
Brive-la-Gaillarde, Nouvelle-Aquitaine
Basé à Cholet (49) ou Brive la Gaillarde (19) Description Principales responsabilités de l’offre : > Collecter, structurer et modéliser les données issues des différents systèmes industriels (ERP, MES, etc.) ; > Définir et construire des modèles de données adaptés aux besoins de reporting et d’analyse ; > Concevoir et maintenir des dashboards dynamiques sur Power BI (ou tout autre outil équivalent de data visualisation) afin de restituer les indicateurs clés de performance (KPI) aux équipes métiers ; > Participer à la mise en place de flux de données automatisés via des outils ETL (Talend de préférence) pour garantir la fiabilité et la disponibilité des informations ; > Accompagner les équipes opérationnelles dans la compréhension et l’utilisation des analyses produites ; > Identifier les axes d’amélioration, proposer des solutions innovantes et contribuer à la transformation digitale du site industriel ; > Rédiger la documentation des modèles, processus et outils déployés.
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
Offre d'emploi
Architecte Data
R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop
1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Mission freelance
Lead Data Architecte Sénior
Nicholson SAS
Publiée le
CRM
Google Cloud Platform (GCP)
SQL
9 mois
400 €
Massy, Île-de-France
Lead Data Architect Senior – Supply Chain Analytics Lieu : Massy (91) – Hybride (2 jours sur site / semaine) Durée : ASAP jusqu’au 31/12/2026 TJM : 400 € 🎯 Le Rôle : Pivot Stratégique & Technique Au cœur de l’ Analytics Factory , véritable moteur de la transformation numérique du groupe, vous rejoignez l’équipe Data Translation Supply Chain . Votre mission est cruciale : être le trait d’union entre les enjeux métier de la Supply Chain (prévisions de ventes, optimisation des flux, planification entrepôts) et l'excellence technique des équipes Data (Scientists, Engineers, Gouvernance). Vous ne vous contentez pas d'analyser ; vous guidez les décisions stratégiques du nouveau Directeur de la Supply Chain. Vos principales responsabilités : Data Translation : Traduire les problématiques business complexes en solutions analytiques concrètes. Analyse & Modélisation : Piloter des analyses approfondies nécessitant une forte agilité et un esprit critique pour challenger les demandes métier. Restitution de haut vol : Assurer la communication et la vulgarisation des résultats auprès du Top Management. Amélioration Continue : Évaluer la qualité du code, optimiser les solutions existantes et garantir le respect des standards élevés du groupe. 🛠 Environnement Technique & Expertises Nous recherchons un profil capable de manipuler de larges volumétries de données avec une aisance absolue. Maîtrise incontournable : SQL (BigQuery), outils de Datavisualisation (Tableau, Google Looker Studio). Les "Plus" : Maîtrise de Python et GitLab . Data Science : Solide compréhension des principes de modélisation pour interagir efficacement avec les Data Scientists. Infrastructure : Expertise en Architecture de données et environnement Google Cloud Platform (GCP) . 🎓 Profil recherché Formation : Diplôme d’Ingénieur ou équivalent Bac+5 de haut niveau en Maths/Stats). Expérience : +7 ans d’expérience en Data, dont au moins 2 ans dans le secteur du Retail (ou conseil spécialisé) et 2 ans spécifiquement sur des sujets Supply Chain . Soft Skills : * Posture "Top Management" : excellente communication orale et écrite. Capacité de vulgarisation de sujets complexes. Rigueur, autonomie et proactivité. 💻 Cadre de travail & Moyens Équipement : Laptop professionnel haut de gamme (i7/Ryzen 7, 16 Go RAM, SSD) fourni. IA Générative : Accès aux solutions d'IA sécurisées internes du groupe (usage d'IA externes proscrit pour garantir la sécurité des données). Culture : Intégration dans une équipe agile, mature et experte, favorisant l'apprentissage continu.
Offre d'emploi
Data Engineer (3+ ans d'exp)
WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)
1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Mission freelance
Data Analyst Confirmé
SKILLWISE
Publiée le
Data analysis
3 mois
400-550 €
Île-de-France, France
Réaliser des extractions de données et des analyses ad hoc en réponse aux besoins métiers Produire des études clients & prospects (Marketing, Offre, Jeu Responsable…) Mesurer l’impact business : Arrêt / relancement de jeux Campagnes CRM & digitales Élaborer des bilans d’activité (trimestriels / annuels) : offre, activité joueurs, parcours d’inscription Analyser les phénomènes de cannibalisation et de rémanence Participer à l’exploration de nouvelles sources de données (navigation, tracking…) Votre rôle : Traduire les données en insights clairs et actionnables Formuler des recommandations business pertinentes Garantir la cohérence méthodologique des analyses Assurer la qualité et la fiabilité des données présentées Interagir avec différents interlocuteurs métiers
Mission freelance
CONSULTANT SENIOR SAP BW/DATASPHERE H/F
AXONE BY SYNAPSE
Publiée le
BigQuery
Data Lake
Microsoft Power BI
3 mois
Auvergne-Rhône-Alpes, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Consultant Senior SAP BW / Datasphere H/F afin d’accompagner un programme stratégique de transformation du reporting financier. Dans un contexte hautement confidentiel lié à des enjeux stratégiques et financiers majeurs, le client souhaite remplacer son environnement SAP BW en fin de support (BEX/BIA) par une solution moderne orientée DataLake et BI. Le consultant interviendra dans un cadre sécurisé nécessitant discrétion et rigueur, avec une exposition directe à des décisions structurantes. La mission comprend une phase d’étude, de cadrage, d’avant-vente ainsi que la mise en œuvre opérationnelle. Le consultant agira comme référent technique et stratégique, en contribuant activement aux choix d’architecture et aux orientations data à long terme. Objectif et livrable: Étude de cadrage complète Analyse de l’existant SAP BW Cartographie des données et processus métiers Benchmark des solutions (Datasphere, Snowflake, BigQuery) Recommandations d’architecture cible Plan de migration détaillé Chiffrage global projet + RUN Support avant-vente et construction de proposition Compétences attendues: Expertise SAP BW (modélisation, extraction, reporting) Connaissance SAP Datasphere Expérience DataLake (Snowflake, BigQuery) Architecture data & BI Outils de reporting (SAC, Power BI, MicroStrategy, Jedox) Cadrage projet et recueil des besoins métiers Estimation budgétaire et chiffrage projet Migration SI décisionnel
Offre d'emploi
Scrum Master / Agile Master Data (F/H) - NIORT
K-Lagan
Publiée le
Agile Scrum
Big Data
Gestion de projet
1 an
10k-49k €
100-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Scrum Master / Agile Master Data (F/H) pour rejoindre l’un de nos clients, dans un environnement data innovant. 🔍 Contexte Vous interviendrez au sein de Feature Teams / Squads Data , travaillant sur des sujets tels que plateformes data, reporting, analytics, machine learning ou gouvernance des données . Votre rôle sera de garantir l’application des pratiques Agile et de faciliter la collaboration dans un environnement technique et métier exigeant. 🎯 Missions Accompagner les équipes Data dans l’adoption et l’amélioration des pratiques Agile Animer les rituels Scrum (daily, sprint planning, review, rétrospective) Faciliter la collaboration entre équipes techniques, métiers et stakeholders Lever les impediments et sécuriser l’avancement des squads Promouvoir une culture d’ amélioration continue Assurer un suivi des indicateurs Agile (KPI, vélocité, delivery…) Accompagner la transformation Agile à l’échelle si nécessaire
Offre d'emploi
Master Data Manager SAP
SARIEL
Publiée le
ERP
Master Data Management (MDM)
SAP
12 mois
Villepinte, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un SAP MDM Intitulé du poste Responsable Master Data (Master Data Manager) Localisation : Siège – Villepinte Rattachement hiérarchique : Architecte Informatique Environnement : Systèmes d’information – Data, Intégration & Middleware Encadrement Management direct d’une équipe de Data Stewards __________ Contexte et enjeux du poste Dans un environnement multi-ERP et multi-applicatif, le Responsable Master Data est garant de la qualité, de la cohérence et de la gouvernance des données de référence. Il définit, maintient et fait évoluer le dictionnaire de données, pilote les logiques de migration et sécurise les flux d’échanges de données entre les différents ERP (dont SAP) et briques applicatives. Ce rôle est clé dans les projets de transformation digitale, de migration ERP et d’urbanisation du SI. __________ Missions principales Gouvernance et qualité des Master Data • Définir, maintenir et faire évoluer le dictionnaire de données (modèles, attributs, règles de gestion) • Garantir l’application des standards et règles de gouvernance des données • Assurer la qualité, la cohérence et l’unicité des données de référence • Mettre en place des indicateurs de qualité de données (DQ) Flux de données & interopérabilité • Définir et piloter les logiques d’interaction et de synchronisation des données o Entre ERP (SAP, autres ERP) o Entre ERP et briques applicatives (CRM, WMS, BI, outils métiers…) • Travailler avec les équipes techniques sur les flux ETL / ELT • Participer à l’urbanisation du SI Data Migration de données • Piloter et sécuriser les projets de migration de données • Définir les règles de mapping, de transformation et de reprise des données • Participer aux phases de tests, de validation et de mise en production • Capitaliser sur les retours d’expérience pour améliorer les processus Management de l’équipe Data Steward • Encadrer, animer et faire monter en compétence l’équipe de Data Stewards • Définir les rôles, responsabilités et priorités • Assurer l’alignement entre les métiers, l’IT et la gouvernance data • Être le point de référence sur les sujets Master Data Collaboration transverse • Travailler étroitement avec : o Les équipes métiers o Les équipes IT / ERP / BI o Les chefs de projet data et ERP • Participer aux comités de gouvernance Data __________ Objectifs clés du poste • Sécuriser la fiabilité et la cohérence des données de référence • Réussir les projets de migration et de transformation ERP Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
IT Data & Integration Manager
Taimpel
Publiée le
API
Architecture
Pilotage
1 an
59k-70k €
570-660 €
Paris, France
Contexte de la mission MH IS&T a lancé la mise en œuvre d’un outil d’ Integrated Business Planning (IBP) : Kinaxis Maestro . Il s’agit d’un programme de transformation , et non d’un simple projet d’implémentation IT. Une équipe Core Solution et une équipe Data & Integration travaillent en parallèle, en collaboration avec les équipes métiers et l’intégrateur, afin de construire la solution. Dans ce contexte, recherche un IT Data & Integration Manager pour renforcer l’équipe en place. Cette personne sera responsable de : piloter et gérer la mise en œuvre de l’ensemble des flux de données, assurer la coordination avec les équipes internes (IT et métiers), travailler avec l’intégrateur, superviser les différentes tâches et équipes pour garantir le respect : du périmètre, de la qualité, des délais, intervenir également en exécution opérationnelle (pas uniquement en pilotage). Rôle côté intégration Pour l’équipe d’intégration, cette personne devra : fournir les spécifications nécessaires : APIs transferts de fichiers L’équipe Data & Integration est responsable de la mise en place des flux entre : les systèmes et la solution Kinaxis Maestro Ces flux doivent être construits : selon l’architecture définie selon les spécifications produites par cette personne Rôle côté Data (mode Agile) Cette personne agira également comme Product Owner des produits data , avec les responsabilités suivantes : Faire le lien entre besoins métiers et données Prioriser les sujets Définir les règles de transformation des données Activités principales : Recueillir les besoins et spécifications (outil : Jira) Prioriser et suivre les sprints Participer aux cérémonies Agile Contexte SI Plusieurs systèmes doivent être connectés à Kinaxis Maestro : SAP ECC SAP Business One Anaplan Outil de budget etc. La connexion se fait via la Kinaxis Integration Layer , où l’intégrateur implémente les règles de transformation. Objectifs et livrables Responsabilités clés Piloter les spécifications fonctionnelles du stream Data & Integration Garantir le respect de l’architecture cible Garantir le respect des bonnes pratiques et standards S’assurer que la solution d’intégration : est optimisée est stable couvre les besoins Produire et maintenir la documentation fonctionnelle et technique Adopter une approche design-to-run pour faciliter le passage en RUN Missions principales Pilotage du stream Data & Integration Définition de la stratégie de sourcing des données Choix de la stratégie d’ingestion : utilisation ou non de la plateforme data arbitrage entre attentes métiers et contraintes techniques Alignement fonctionnel / technique sur les référentiels transverses : Produits Clients Pilotage de la delivery du stream Participation aux réunions projet Reporting d’avancement et gestion des risques Point de contact principal pour l’intégrateur sur les sujets data Coordination & cadrage Identifier les besoins data avec les équipes métiers Traduire ces besoins en spécifications Collaborer avec les équipes IT internes et l’intégrateur Stratégie technique Définition des environnements : dev staging production Définition de la stratégie de test : données nécessaires planning organisation des tests Mise en œuvre des flux Organisation des extractions et intégrations depuis les systèmes Travail avec l’intégrateur sur les règles de transformation Construction de la couche d’intégration Pilotage des phases projet Mise en place des flux Conversion des données Tests unitaires Tests de masse UAT Mise en production Passage en RUN Automatisation des interfaces Qualité & amélioration Capitalisation documentaire : scripts de test schémas d’architecture règles data Challenge des choix techniques Recommandations d’amélioration Collaboration avec l’Enterprise Architect Mise en place du monitoring des interfaces Définition de KPI Compétences demandées Compétences techniques Connaissance Supply Chain → Avancé GCP BigQuery → Expert Anglais courant (oral et écrit) → Expert Expérience Product Owner data → Expert Gestion de systèmes complexes → Expert Capacité à vulgariser des sujets complexes → Expert Expérience API / fichiers / retry / delta → Expert Connaissance ERP (SAP ECC, SAP B1, S/4 Hana) → Expert Architectures distribuées / ELT / ETL → Expert Expérience secteurs FMCG / Retail / Luxe → Expert MS Office 365 → Expert Expérience architecte data fonctionnel / lead stream data → Expert Communication & organisation → Expert Axway, GCP, design patterns → Avancé Design d’API & protocoles d’intégration → Expert Français → Expert Méthodologie Agile → Expert 🎯Ce besoin est : senior hybride : Architecte + PO + Delivery Lead orienté : intégration SI complexe data flows coordination multi-équipes 👉 Ce n'est pas juste un besoin de Data Engineer. 👉 Il faut quelqu’un qui a déjà : piloté un stream data Travaillé avec intégrateur Déjà fait du SAP + data + API
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2615 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois