Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 87 résultats.
Freelance
CDI

Offre d'emploi
Directeur de Programme Fusion et Acquisition

VISIAN
Publiée le
Cloud
Management

1 an
Île-de-France, France
Contexte de la prestation Nous recherchons un Directeur de Programme expérimenté pour accompagner les opérations de carve-in et carve-out dans le cadre de projets de fusion et acquisition. Le Directeur de programme aura un rôle clé dans la gestion et l'exécution de ces processus complexes, assurant une transition fluide et efficace des entités concernées et devra prendre en charge les premières demandes en attendant de monter son équipe. Son interlocuteur principal sera l'équipe des Operations Internationales et il travaillera en étroite collaboration avec nos équipes IT (Business Analysts, Solution Owners, Architectes, Data specialists, Experts Cyber Sécurité…) et Métiers.
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance

Mission freelance
Data Architect

Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality

3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Freelance

Mission freelance
Data architect H/F

HAYS France
Publiée le

6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro, et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Reporting Risques : IRRBB, Liquidité, Trading, Contrepartie. Sources de données à intégrer : rapports Cognos, Standard & Poor's, Bloomberg, Fonds de pension, Liquidité intrajournalière. Compétences techniques : Azure Synapse Analytics, Azure Data Factory, SQL/ELT, Power BI, Purview, CI/CD. Tâches principales Définir, détailler et documenter l'architecture cible Risk Définir la liste et les caractéristiques des dataflows à mettre en œuvre Concevoir le modèle de données requis pour le reporting risques (IRRBB, Liquidité, etc.) afin de faciliter l'intégration dans WKFS RiskPro Définir les règles de transformation (haut niveau) Garantir l'application des standards Groupe (sécurité, gestion des données, etc.)
CDI
Freelance

Offre d'emploi
Product Owner MDM H/F

HAYS France
Publiée le
Master Data Management (MDM)
Product management
TIBCO

6 mois
La Défense, Île-de-France
Nous recherchons pour le compte de notre client un Product Owner MDM H/F pour une mission en freelance ou portage salarial de 6 mois en vue d’embauche à pourvoir dès que possible dans le 92. Notre client propose 2 jours de télétravail maximum par semaine. Les préavis d’un mois sont acceptés. Mission principale : Porter la vision et la stratégie du produit MDM dédié à la gestion (entre autres) des Tiers, des Clients, des taux de change, des sites et des certifications, en alignement avec les objectifs métiers et IT de notre client. Responsabilités : Vision & Stratégie Construire et porter la vision du produit MDM pour les objets Tiers, Clients, taux de change, sites, certifications. Alignement avec les besoins métiers (Finance, Commerce, Opérations, Compliance, Business Excellence etc.) et la stratégie IT/Data du groupe. Recueil & Priorisation des besoins Recueillir, analyser et prioriser les besoins des parties prenantes (métiers, IT, data, finance, Commerce, Business Excellence, conformité, etc.). Organiser des ateliers de cadrage et de recueil des besoins. Roadmap & Backlog Définir, maintenir et communiquer la roadmap du produit. Rédiger et maintenir les user stories, critères d'acceptance, et gérer le backlog. Assurer la cohérence des évolutions fonctionnelles et techniques. Collaboration & Delivery Travailler étroitement avec les équipes de développement, architectes, data stewards et experts métier pour garantir la qualité, la fiabilité et la sécurité des données. Animer les cérémonies Agile (Sprint Planning, Daily, Review, Rétrospective) et assurer le suivi du delivery. Qualité & Recette Contrôler la qualité des livrables et piloter la recette fonctionnelle des nouvelles fonctionnalités. S’assurer de la conformité des données et des évolutions avec les exigences réglementaires et internes. Adoption & Support utilisateur Accompagner les utilisateurs dans l’adoption de la solution. Organiser les phases de formation, supports et change management. Veille & Amélioration continue Assurer une veille sur les évolutions réglementaires et technologiques liées à la gestion des données des différents Master Datas. Proposer des axes d’amélioration continue du produit. Indicateurs de réussite Qualité et fiabilité des données gérées Satisfaction des utilisateurs et des parties prenantes Respect des délais et du budget Adoption et utilisation de la solution Contribution à l’amélioration continue du produit
CDI
Freelance

Offre d'emploi
Scrum Master senior H/F - Rennes

INFOTEL CONSEIL
Publiée le
Agile Scrum
JIRA

3 mois
40k-49k €
450-550 €
Rennes, Bretagne
Notre client effectue une transformation vers l’Agilité. Les équipes sont découpées en squads autour d’un produit et travaillent suivant le cadre SCRUM. Les équipes sont réparties uniformément sur deux sites principaux Rennes et Lyon. Nous sommes accompagnés par des coachs Agile pour la mise en œuvre de la transformation. Dans ce cadre nous recherchons une prestation de Scrum Master expérimenté pour accompagner 1 squad de 6 personnes. Les activités de la squad concernée couvrent mise en œuvre d’une Data plateforme sous la forme d’un socle technique (Spark, Jupyter, Kubernetes, Argo, MinIO, Trino) et d’un cadre de gouvernance garantissant la sécurité, la conformité et la qualité des données. Le périmètre de la fonction est : • dans la squad Data Plateforme, constituée d’un Product Owner, d’un Lead Platform Architect, d’un Data Architect, d’un développeur Platform automation, d’un DevOps, d’un Data Engineer. • le tout au sein de la tribu Data & IA, en lien avec les experts du Chapitre Data Gouvernance & IA et les architectes Data L’accompagnement de l’équipe doit se faire sur l’appropriation du cadre SCRUM, de ses valeurs et la facilitation des problèmes liés aux changement organisationnel et opérationnels. De façon moins prioritaire, et suivant le profil, une partie de l’activité pourrait également être consacrée à l’accompagnement de la transformation Agile de l’entreprise (au niveau DSI, métiers, Architecture, data) avec les autres coachs agiles. Activités principales : ➢ SCRUM MASTER d’une équipe autonome ➢ Garant du cadre Agile et des valeurs auprès des équipes accompagnées et dans l’organisation o Support sur les événements Agiles et s’assure que ceux-ci sont positifs et productifs o Sécurisation du delivery lors des PI Planning o Accompagnement dans l’appropriation auprès des équipiers ➢ Amélioration des pratiques des équipes et facilitation avec les parties prenantes ➢ Facilitation sur les problématiques opérationnelles ➢ Faire grandir les équipes accompagnées en responsabilité et autonomie ➢ Remontée d’alerte si nécessaires ➢ Être force de proposition sur des axes d’amélioration continue ➢ Communication et proactivité dans le mode de fonctionnement Agile de l’équipe et de l’organisation Compétences requises : ➢ Expérience solide dans l’accompagnement d’équipes Agile dans une organisation à l’échelle ➢ Pratiques et méthodes collaboratives dans l’exécution des activités (animation, ateliers divers …..) ➢ Connaissance des outils et techniques d’amélioration continue ➢ Aisance relationnelle, animation, communication ➢ Proactivité ➢ Expérience confirmée dans l’accompagnement et la gestion du changement Qualités personnelles : ➢ Esprit collectif ➢ Sens de l’organisation ➢ Orienté solution
Freelance

Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)

HOXTON PARTNERS
Publiée le
Data management

3 ans
680-900 €
Paris, France
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🌐 Langue : Anglais (obligatoire)
Freelance

Mission freelance
Data Product Manager – Programme S/4HANA

Comet
Publiée le
SAP S/4HANA

1 an
400-600 €
France
Contexte de la mission Dans le cadre de la migration stratégique de SAP ECC vers S/4HANA , notre client du secteur industriel engage une transformation majeure de son modèle Data & Reporting. Le Data Product Manager interviendra sur le stream Data & Visualization afin de : Concevoir un nouveau Data & Report Model basé sur S/4HANA Évaluer les impacts sur les systèmes Legacy Accompagner les métiers dans la définition de leur stratégie de reporting Structurer une approche Data as a Service Missions principalesCadrage & Pilotage Organiser et structurer l’étude Data & Reporting Recueillir les besoins métiers (workshops, interviews) Comprendre les ambitions business et enjeux stratégiques Formaliser les recommandations “Go to Project” Architecture & Modélisation Documenter l’architecture fonctionnelle cible Concevoir les modèles de données (Business Layer / Silver Layer) Définir les flux data du ERP jusqu’à la visualisation Évaluer les impacts sur les systèmes existants Coordination & Delivery Piloter les contributeurs Data (Architecte, Data Engineers, BI Engineers) Structurer le modèle Data as a Service Préparer planning & budget Build/Run Documenter la valeur de la solution Compétences attenduesTechniques Expertise en Data Modeling Forte maîtrise des environnements ERP (SAP idéalement) Solide compréhension du cycle de vie de la donnée (ERP → DWH → BI) SQL avancé Power BI (niveau confirmé minimum) Analyse & exploration de données Fonctionnelles Expérience en transformation S/4HANA Animation d’ateliers métiers Capacité à traduire des besoins business en modèle data Vision produit / approche Data Product Soft skills Excellente communication (français & anglais) Leadership transverse Organisation & structuration Orientation client forte
Freelance
CDI
CDD

Offre d'emploi
Développeur Python Senior (H/F)

QODEXIA
Publiée le
Python
React

10 jours
46k-48k €
440 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Notre client, leader mondial de l’énergie bas carbone et des services, s’appuie sur sa Business Unit Supply & Energy Management (S&EM) pour fournir une énergie fiable, durable et accessible. Dans le cadre de sa stratégie de décarbonation, il joue un rôle clé dans la gestion et L’équipe Renewable Energy Systems IS (RES IS) développe des outils critiques pour exploiter et piloter les actifs “verts”, avec un fort accent sur la collecte et l’analyse des données issues des centrales éoliennes et solaires. En rejoignant cette équipe composée de Business Analysts, Architectes SI, Développeurs et Data Analysts, vous contribuerez directement à : · l’optimisation des actifs renouvelables. · l’optimisation des actifs énergétiques · les stratégies de trading · l’intégration des énergies renouvelables
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
Freelance

Mission freelance
Azure Data Architect (Maroc)

AVALIANCE
Publiée le
Azure
Azure AI
Azure Data Factory

3 ans
Maroc
Contexte : Définition des besoins assistance au design / rédaction TAD (functional/Non Functional) Accompagner les squads projets dans la mise en place d’architectures data sécurisées et scalables sur Azure Collaborer avec les architectes data, sécurité, entreprise et les DevOps dans chaque squad. Garantir la bonne intégration et l’usage des composants Azure liés à la data. Assurer l’isolation, la sécurisation et le bon routage des accès aux données. Compétences attendues : Expertise Cloud Azure (Infrastructure), notamment : Azure Data Factory Azure Databricks Azure Data Lake Storage Azure Synapse Analytics Connaissances approfondies des problématiques d’architecture sécurisée, d’accès aux données, et de segmentation des environnements. Expérience dans l’intégration Power BI avec des ressources Azure (via Data Gateway, par exemple). Capacité à travailler en environnement agile multi-squad Périmètre technique : Ingestion de données depuis différentes sources (bases relationnelles, fichiers, APIs). Stockage des données dans un Data Lake et modélisation dans un Data Warehouse. Orchestration et transformation via Azure Data Factory et Databricks, intégration potentielle de modèles Machine Learning. Mise en place de pipelines ELT : structuration des données pour les rendre exploitables par les métiers. Restitution des données via Power BI (connexion entre Power BI SaaS et bases PaaS via Data Gateway)
Freelance

Mission freelance
Directeur de programme

VISIAN
Publiée le
Agile Scrum
Prince2

1 an
Paris, France
Nous recherchons un Directeur de Programme expérimenté pour accompagner les opérations de carve-in et carve-out dans le cadre de projets de fusion et acquisition. Le Directeur de programme aura un rôle clé dans la gestion et l'exécution de ces processus complexes, assurant une transition fluide et efficace des entités concernées et devra prendre en charge les premières demandes en attendant de monter son équipe. Son interlocuteur principal sera l'équipe des Operations Internationales et il travaillera en étroite collaboration avec nos équipes IT (Business Analysts, Solution Owners, Architectes, Data specialists, Experts Cyber Sécurité…) et Métiers. Description de la prestation Cadrage des projets et gestion des changements : Définition des objectifs et des périmètres des projets de carve-in et carve-out et mise en place des plans de gestion des changements. Planification et Suivi : Élaboration des plannings projets, gestion des ressources et suivi des délais, budget et qualité des livrables. Gestion des Risques et Résolution de Problèmes : Identification des risques et mise en place des actions correctives. Pilotage des appels d'offres fournisseurs : Coordination de la gestion du cahier des charges, organisation et participation aux soutenances, négociation commerciales, juridiques et préconisation des choix. Pilotage intégrateurs et éditeurs. Coordination des Parties Prenantes : World Operations, Métiers, Data et DSI. Pr Maîtrise des méthodologies de gestion de projet (Agile, SCRUM, Prince2, etc.), et des outils de gestion de projet (MS Project, JIRA, etc.).
Freelance
CDI

Offre d'emploi
IT Data & Integration Manager

Taimpel
Publiée le
API
Architecture
Pilotage

1 an
59k-70k €
570-660 €
Paris, France
Contexte de la mission MH IS&T a lancé la mise en œuvre d’un outil d’ Integrated Business Planning (IBP) : Kinaxis Maestro . Il s’agit d’un programme de transformation , et non d’un simple projet d’implémentation IT. Une équipe Core Solution et une équipe Data & Integration travaillent en parallèle, en collaboration avec les équipes métiers et l’intégrateur, afin de construire la solution. Dans ce contexte, recherche un IT Data & Integration Manager pour renforcer l’équipe en place. Cette personne sera responsable de : piloter et gérer la mise en œuvre de l’ensemble des flux de données, assurer la coordination avec les équipes internes (IT et métiers), travailler avec l’intégrateur, superviser les différentes tâches et équipes pour garantir le respect : du périmètre, de la qualité, des délais, intervenir également en exécution opérationnelle (pas uniquement en pilotage). Rôle côté intégration Pour l’équipe d’intégration, cette personne devra : fournir les spécifications nécessaires : APIs transferts de fichiers L’équipe Data & Integration est responsable de la mise en place des flux entre : les systèmes et la solution Kinaxis Maestro Ces flux doivent être construits : selon l’architecture définie selon les spécifications produites par cette personne Rôle côté Data (mode Agile) Cette personne agira également comme Product Owner des produits data , avec les responsabilités suivantes : Faire le lien entre besoins métiers et données Prioriser les sujets Définir les règles de transformation des données Activités principales : Recueillir les besoins et spécifications (outil : Jira) Prioriser et suivre les sprints Participer aux cérémonies Agile Contexte SI Plusieurs systèmes doivent être connectés à Kinaxis Maestro : SAP ECC SAP Business One Anaplan Outil de budget etc. La connexion se fait via la Kinaxis Integration Layer , où l’intégrateur implémente les règles de transformation. Objectifs et livrables Responsabilités clés Piloter les spécifications fonctionnelles du stream Data & Integration Garantir le respect de l’architecture cible Garantir le respect des bonnes pratiques et standards S’assurer que la solution d’intégration : est optimisée est stable couvre les besoins Produire et maintenir la documentation fonctionnelle et technique Adopter une approche design-to-run pour faciliter le passage en RUN Missions principales Pilotage du stream Data & Integration Définition de la stratégie de sourcing des données Choix de la stratégie d’ingestion : utilisation ou non de la plateforme data arbitrage entre attentes métiers et contraintes techniques Alignement fonctionnel / technique sur les référentiels transverses : Produits Clients Pilotage de la delivery du stream Participation aux réunions projet Reporting d’avancement et gestion des risques Point de contact principal pour l’intégrateur sur les sujets data Coordination & cadrage Identifier les besoins data avec les équipes métiers Traduire ces besoins en spécifications Collaborer avec les équipes IT internes et l’intégrateur Stratégie technique Définition des environnements : dev staging production Définition de la stratégie de test : données nécessaires planning organisation des tests Mise en œuvre des flux Organisation des extractions et intégrations depuis les systèmes Travail avec l’intégrateur sur les règles de transformation Construction de la couche d’intégration Pilotage des phases projet Mise en place des flux Conversion des données Tests unitaires Tests de masse UAT Mise en production Passage en RUN Automatisation des interfaces Qualité & amélioration Capitalisation documentaire : scripts de test schémas d’architecture règles data Challenge des choix techniques Recommandations d’amélioration Collaboration avec l’Enterprise Architect Mise en place du monitoring des interfaces Définition de KPI Compétences demandées Compétences techniques Connaissance Supply Chain → Avancé GCP BigQuery → Expert Anglais courant (oral et écrit) → Expert Expérience Product Owner data → Expert Gestion de systèmes complexes → Expert Capacité à vulgariser des sujets complexes → Expert Expérience API / fichiers / retry / delta → Expert Connaissance ERP (SAP ECC, SAP B1, S/4 Hana) → Expert Architectures distribuées / ELT / ETL → Expert Expérience secteurs FMCG / Retail / Luxe → Expert MS Office 365 → Expert Expérience architecte data fonctionnel / lead stream data → Expert Communication & organisation → Expert Axway, GCP, design patterns → Avancé Design d’API & protocoles d’intégration → Expert Français → Expert Méthodologie Agile → Expert 🎯Ce besoin est : senior hybride : Architecte + PO + Delivery Lead orienté : intégration SI complexe data flows coordination multi-équipes 👉 Ce n'est pas juste un besoin de Data Engineer. 👉 Il faut quelqu’un qui a déjà : piloté un stream data Travaillé avec intégrateur Déjà fait du SAP + data + API
CDI

Offre d'emploi
Data Architect ERP Oracle

Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion

Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance

Mission freelance
Expert Datastage/TL/Archi

Nicholson SAS
Publiée le
Architecture
IBM DataStage
Snowflake

15 mois
360 €
Val-de-Marne, France
Expert DataStage / Tech Lead / Architecte Data Secteur : Banque Localisation : Val-de-Marne (2 jours/semaine sur site) TJM max : 360€ Démarrage : ASAP Fin de mission : 01/07/2027 Contexte Au sein d’un environnement Data stratégique, vous interviendrez dans une entité en charge des systèmes d’information liés aux activités Retail et Private Banking. L’équipe Data pilote la gouvernance des données ainsi que les projets liés aux domaines Marketing et Pilotage, avec une forte orientation vers la modernisation des plateformes et la migration vers le cloud. Mission En tant qu’ Expert DataStage , vous interviendrez principalement en tant qu’ administrateur de plateforme (et non développeur pur). À ce titre, vous serez en charge de : L’administration d’une plateforme AIX hébergeant les moteurs DataStage (environ 30 applications) Le suivi et le bon fonctionnement des traitements alimentant principalement Teradata L’accompagnement des équipes dans le cadre de la migration vers Snowflake (cloud public) Le support quotidien aux équipes applicatives utilisatrices de la plateforme La mise en place et le respect des bonnes pratiques Data / ETL Le support au delivery des composants en attendant une automatisation complète des processus Profil recherché Expérience Junior/confirmée (idéalement 3 à 5 ans minimum ) sur des environnements Data complexes Expertise DataStage (IBM InfoSphere) , avec une forte dimension administration / architecture Bonne maîtrise des environnements AIX Expérience sur Teradata et compréhension des enjeux de migration vers le cloud Connaissance de Snowflake appréciée Capacité à intervenir en support transverse et à accompagner des équipes techniques Compétences clés IBM InfoSphere DataStage Snowflake Teradata Administration plateforme Data / ETL Environnements Unix / AIX Ce qui fera la différence Vision plateforme et non uniquement développement Capacité à structurer, fiabiliser et industrialiser les processus Bon relationnel pour interagir avec plusieurs équipes applicatives
87 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous