Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 737 résultats.
Freelance

Mission freelance
Lead Data migration SIRH

MSI Experts
Publiée le
Workday

1 an
550-600 €
La Défense, Île-de-France
Cadrage du chantier data migration Responsable de l’équipe et de son animation Responsable du planning Responsable du pilotage et statut d’avancement Consolidation des référentiels Consolidation et contrôle sur les données employés pour tous les pays Responsable des règles de transformation Responsable de la mise à disposition des données aux intégrateurs Point de contact avec les pays Défini la stratégie de reprise de donnée et de data catch up Pilote l’exécution de la reprise de donnée et du data catch up Contribue aux décommissionnements du legacy
Freelance

Mission freelance
Domain Data Architect

Groupe Aptenia
Publiée le
Architecture
Azure
Databricks

3 ans
660-700 €
Lyon, Auvergne-Rhône-Alpes
🔍 Nous sommes à la recherche d'un Architecte Data Domain pour piloter la stratégie de transformation de notre client. Votre rôle : définir la feuille de route, prioriser les programmes, et aligner les équipes techniques et métiers. Vous serez le référent technique Azure/Databricks, tout en coordonnant des équipes d’architectes data et en intervenant techniquement si nécessaire. ✅ Définir et piloter la stratégie d’évolution du domaine data. ✅ Prioriser et justifier les transformations techniques auprès des métiers. ✅ Être référent technique sur Azure et Databricks. ✅ Coordonner des équipes d’architectes data et intervenir techniquement (dépannage, analyse d’impacts). ✅ Garantir l’alignement entre enjeux métiers et solutions techniques.
Freelance

Mission freelance
Tech Lead Senior (Applications Marketing & Data)

Sapiens Group
Publiée le
BigQuery
Google Cloud Platform (GCP)

12 mois
500-540 €
Île-de-France, France
Nous recherchons un Tech Lead Senior pour piloter et faire évoluer plusieurs applications stratégiques liées à la performance des assets média. Vous évoluerez dans une équipe pluridisciplinaire composée de profils variés (Développeurs Full Stack, Data Scientists, Data Engineers, Product Owner, QA) dans un environnement dynamique et orienté data. L’une des applications principales vise à offrir une vision complète de la performance et de l’optimisation des assets média , couvrant l’ensemble de la chaîne de valeur : de la stratégie globale jusqu’à l’activation locale . Missions principales Leadership technique Encadrer et superviser les ressources techniques de l’équipe. Assurer le rôle de référent technique et accompagner les développeurs dans les choix technologiques et les bonnes pratiques. Architecture & conception Concevoir et définir les architectures et solutions techniques des applications. Garantir la robustesse, la scalabilité et la maintenabilité des systèmes. Développement & intégration IA Piloter et gérer des applications intégrant des briques d’intelligence artificielle : gestion de la code base data pipelines optimisation des modèles déploiement et supervision Intervenir sur l’ensemble de la stack : Front-end, Back-end, Cloud Infrastructure et DevOps . Data & Cloud Exploiter et intégrer les données issues du datalake du Groupe (BigQuery) . Maîtriser l’écosystème Google Cloud Platform (GCP) et contribuer aux bonnes pratiques d’architecture cloud. Collaboration transverse Agir comme point de contact technique auprès des équipes transverses : Cybersécurité Data Privacy Enterprise Architecture Garantir la conformité des solutions aux standards du groupe. Résolution de problématiques techniques Investiguer et résoudre des problématiques techniques complexes : debugging avancé optimisation des performances migration d’infrastructures amélioration continue des systèmes. Profil recherché Expérience confirmée en lead technique / Tech Lead / Architecte . Solides compétences en développement full stack et architectures cloud . Expérience sur Google Cloud Platform (GCP) et BigQuery . Bonne compréhension des architectures data et IA/ML pipelines . Capacité à travailler dans un environnement transverse et collaboratif . Forte aptitude à analyser, diagnostiquer et résoudre des problèmes techniques complexes .
Freelance
CDI

Offre d'emploi
Chef de Projet WMS/Data

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un chef de projet data pour intégrer nos équipes. Objectif de la mission En tant que Chef de Projet Data, votre mission est d'assurer le pont entre les besoins métier Data (Supply Chain/Logistique) et l’équipe produit WMS. Vous serez chargé d’orchestrer et contribuer à l’avancement des chantiers reporting, définition des business terms et de gouvernance de la donnée. Vos responsabilités Sous la responsabilité du responsable data, vous piloterez les chantiers suivants : ● Pilotage : Animation de comités projets et d’ateliers avec les équipes métier et techniques. ● Cadrage : Accompagner les équipes data et produit dans la définition des besoins. ● Design Data : Participer à la définition des objets métier et leur cycle de vie. ● Analytics & Business Intelligence : Concevoir et développer des rapports et dashboards stratégiques pour le pilotage opérationnel de l'entrepôt
Freelance

Mission freelance
Senior Data Engineer – Data Platform Enabler

Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps

12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Freelance

Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)

CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Freelance

Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st

WorldWide People
Publiée le
DevSecOps

12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Freelance
CDI

Offre d'emploi
Data Engineer Senior – DBT

adbi
Publiée le
DBT

1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
Freelance

Mission freelance
Governance & Data Management Lead

ALLEGIS GROUP
Publiée le
Data management
Gouvernance
Méthode Agile

1 an
Paris, France
Nous recherchons un Governance & Data Management Lead pour structurer, coordonner et piloter l’ensemble des processus de collecte, gestion et reporting des données de sécurité et des use cases IA au niveau Groupe. Ce rôle stratégique combine gouvernance, coordination transverse, travail avec équipes off‑shores et animation de communautés Data & AI. Votre mission principale Piloter et coordonner la collecte, gestion et consolidation des données de sécurité et des use cases IA à travers les entités du Groupe, en garantissant : la conformité, l’engagement des parties prenantes, une gouvernance solide, et une vision unifiée au niveau Group Security.
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
CDI
CDD
Freelance

Offre d'emploi
Intégrateur N2 des applications informatiques

KEONI CONSULTING
Publiée le
Big Data
Linux
Openshift

18 mois
20k-60k €
100-350 €
Niort, Nouvelle-Aquitaine
CONTEXTE Contexte de la mission : Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). ACTIVITES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. PROFIL Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans. Expériences requises dans les domaines : Indispensables : Unix, AIX, Linux (développement de scripts en Shell) Maitrise de l’ordonnanceur Control-M Outil de déploiement : Harvest Connaissances DATA / IA (Cloudera, Talend, Informatica, Azure Databricks) Souhaitées : Connaissance SGBD Oracle Exacc MVS/Z-OS (développement de JCLs) Connaissance SGBD DB2 Openshift Serveurs d’automatisation : Jenkins
Freelance

Mission freelance
Data Migration Expert H/F

Comet
Publiée le
SAP ECC6
SAP FICO
SAP S/4HANA

182 jours
400-700 €
Saint-Ouen, Hauts-de-France
Dans le cadre d’un nouveau programme de transformation SAP (NEO AFI) , nous recherchons un(e) Data Migration Expert pour piloter et sécuriser les activités de migration de données liées à une transition vers SAP S/4 HANA . Le consultant interviendra au cœur du programme et accompagnera les entités locales depuis la définition de l’approche de migration jusqu’à la validation métier des données en production. 🎯 Objectifs de la mission : Accompagner les équipes locales de la définition de la stratégie de migration jusqu’à la validation métier des données Piloter le planning d’exécution des objets de migration Gérer les cycles : MOCK1 MOCK UAT Production Load Assurer le rôle de premier niveau d’analyse des défauts Supporter les application owners sur les problématiques de propagation de données
CDI
Freelance

Offre d'emploi
Expert Google Workspace Data & IA

Management Square
Publiée le
BigQuery
Google Workspace
IA Générative

1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Freelance

Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F

Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)

6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Freelance

Mission freelance
SAP Master data

RED Commerce - The Global SAP Solutions Provider
Publiée le
Master Data Management (MDM)
Migration
SAP

3 mois
400-720 €
Auvergne-Rhône-Alpes, France
Nous recherchons pour l’un de nos clients à Lyon un(e) Consultant(e) SAP MM/SD – Master Data / MDM Expert , pour intervenir sur un projet stratégique de conversion ECC → S/4HANA , avec un fort accent sur les tests de non-régression et la validation des Master Data (BP & Articles) . 🔍 Responsabilités principales : ✅ Réaliser les tests de non-régression sur les Business Partners (clients/fournisseurs) ✅ Vérifier la fusion des partenaires , l’intégrité des données et le respect des tranches de numéros ✅ Tester la visualisation, modification et création des BP , en s’assurant que toutes les classifications, pièces jointes, autorisations et contrôles (doublons SIRET/SIREN/TVA) fonctionnent correctement ✅ Réaliser les tests sur les articles (création, modification, visualisation) et valider la continuité des classifications, pièces jointes et contrôles spécifiques ✅ Participer à la validation des interfaces entrantes et sortantes ✅ Contribuer à l’élaboration et au fonctionnement des outils de reprise en masse pour BP et articles ✅ S’assurer que les reportings et requêtes spécifiques fonctionnent correctement après migration ✅ Documenter tous les tests dans un cahier de tests et suivre les anomalies dans ITop jusqu’à leur résolution
Freelance

Mission freelance
Data Steward (H/F)

Insitoo Freelances
Publiée le
BI
SAP BW

2 ans
350-450 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Data Steward (H/F) : Dans le cadre d’une transformation vers une plateforme data moderne (migration d’un environnement décisionnel type SAP BW vers Snowflake), nous recherchons un Data Steward spécialisé Finance pour accompagner les équipes métier et IT dans la structuration et l’évolution de ses environnements data. Le rôle se situe dans une phase de structuration du dispositif data et combine gestion de projet, expertise fonctionnelle Finance, et coordination transverse. Missions principales : Pilotage & Coordination Cadrer les besoins métiers et définir les périmètres projet. Coordonner les acteurs Finance, IT, Data Engineering et BI. Suivre l’avancement, identifier les risques et garantir l’alignement global. Assurer la production d’une documentation claire et structurée. Expertise fonctionnelle Finance Recueillir, formaliser et challenger les besoins Finance / Contrôle de Gestion. Rédiger les spécifications fonctionnelles et les traduire en exigences techniques. Participer aux phases de tests (IT & UAT). Accompagner les utilisateurs: recette, formation, support.
1737 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous