Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 742 résultats.
Freelance

Mission freelance
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le
SAP

6 mois
400-720 €
Île-de-France, France
Vous aimez sécuriser, structurer et fiabiliser la donnée au cœur de projets SAP critiques ? Rejoignez une entreprise en forte croissance où exigence, expertise et impact client sont au centre de chaque mission. Dans le cadre de projets stratégiques de transformation SAP, nous recherchons plusieurs Consultants SAP spécialisés en migration et reprise de données S/4HANA , capables d’intervenir sur des environnements complexes et à forts enjeux. Vous jouerez un rôle clé dans la réussite des projets en garantissant la qualité, la cohérence et la continuité des données, dans un environnement stimulant, international et orienté résultats. Vos missions : Vous interviendrez principalement sur les volets suivants : Piloter et réaliser les activités de reprise de données SAP (initiales et itératives) Analyser les données existantes issues de systèmes legacy et multi-sources Concevoir et documenter les règles de mapping de données Mettre en œuvre les processus d’ extraction, transformation et chargement Définir et sécuriser la stratégie globale de migration des données Construire et exécuter les plans de bascule (cutover) Réaliser les contrôles, réconciliations et validations post-migration Collaborer étroitement avec les équipes métier, fonctionnelles et techniques Contribuer à la sécurisation des projets dans des contextes critiques
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Freelance

Mission freelance
Ingénieur Cloud Data plateforme

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake

12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDI

Offre d'emploi
PO Data / Business Analyst confirmé

KOMEET TECHNOLOGIES
Publiée le
Microsoft Power BI

45k-60k €
Paris, France
Intervention dans un projet BI avec une forte composante métier. Le consultant participera aux ateliers de recueil du besoin , réalisera des maquettes de Dashboards sous Power BI avant développement dans MicroStrategy (qui sera assuré par la DSI) , afin de s’assurer de l’alignement avec les attentes métiers. La mission inclut également la rédaction des Spécification Fonctionnel, des activités de data analyse / modélisation et la participation à la recette métier .
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management

6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-50k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par Data ingénieur ? Ce poste est fait pour vous. En tant que Data ingénieur, vous êtes responsable du développement et de la fiabilisation de notre écosystème : Côté build : Concevoir et développer les flux d’alimentation des KPIs sur les projets GENAI Construire les flux d’alimentation des KPIs Opérations Groupe (pilotage de l’activité des plateaux de gestion) Développer et maintenir les pipelines d’ingestion et de transformation de données Modéliser les données et structurer les couches de transformation (via dbt) Optimiser les performances des requêtes SQL et la qualité des données Participer aux choix d’architecture et aux bonnes pratiques Data Engineering Côté run : Superviser et maintenir les flux d’ingestion existants Garantir la qualité, la fiabilité et la disponibilité des données Corriger les incidents et assurer le support technique auprès des équipes métiers Mettre en place des contrôles et monitoring des pipelines Assurer l’évolution continue des flux en fonction des besoins projets Documenter les flux et les modèles de données C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez structurer, industrialiser et fiabiliser la donnée sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration transverse. C’est votre expertise : Excellente maîtrise de SQL (obligatoire) Expérience confirmée sur Talend (développement de flux d’ingestion) (obligatoire) Maîtrise de dbt pour la transformation et la modélisation des données Bonne compréhension des architectures data modernes (ELT, pipelines, data warehouse) Python serait un plus apprécié Expérience en environnement Agile / DevOps Connaissance des environnements Cloud appréciée C’est votre manière de faire équipe : Esprit analytique et rigueur Sens du service et orientation métier Capacité à travailler en transverse avec des équipes techniques et opérationnelles Autonomie et proactivité Goût pour l’amélioration continue Communication claire et structurée C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours Salaire : De 40 000€ à 50 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
Analyste DATA et DATASCIENCE

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Bordeaux, Nouvelle-Aquitaine
Prestation d'analyse DATA et DATASCIENCE Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel Définition de la prestation attendue : Rattaché à l'équipe Analyse de la donnée, l’intervenant aura pour principales missions : Mise en oeuvre de cas d'usage métiers par croisement de la donnée (ciblage, analyse de donnée ou datascience ) Développement et maintenance de produits DATA réutilisables Publication des résultats d'analyse avec de la DATAVIZ Respect des normes et bonnes pratiques au sein de l’équipe Accompagnement et acculturation des équipes métiers ou autres Python, Pyspark,SQL,Dataviz, Datascience Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports)
Freelance
CDD

Offre d'emploi
Data Analyst Senior H/F

SMARTPOINT
Publiée le
Git
PySpark
Python

12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Freelance
CDI

Offre d'emploi
Chef de Projet Data Gouvernance H.F

NSI France
Publiée le
Azure
DataGalaxy
Gouvernance, gestion des risques et conformité (GRC)

30 jours
Châtillon, Île-de-France
Description de l'offre d'emploi Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle Le/la consultant(e) travaillera pour un client de NSI France basé en IDF dans le secteur de l’agroalimentaire avec de gros enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. Descriptif des missions Contribuer à la mise en place et au pilotage de la gouvernance des données (qualité, fiabilité, cohérence) Identifier, structurer et documenter les données et indicateurs critiques en lien avec les métiers Définir et suivre les indicateurs de qualité des données et mettre en œuvre des actions d’amélioration continue Concevoir des tableaux de bord de pilotage (qualité, usages, performance data) Détecter les anomalies et formuler des recommandations structurantes en matière de data gouvernance Collaborer avec les équipes métiers, produits et IT pour intégrer la gouvernance dès la conception Animer et accompagner la communauté des Data Analysts autour des bonnes pratiques data
CDI

Offre d'emploi
Architecte Data (H/F)

CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata

40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure / Ops

VISIAN
Publiée le
Azure
Azure Data Factory
Python

2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Freelance

Mission freelance
Assurance - Data Management

FINAX Consulting
Publiée le
Data management

6 mois
550-700 €
Paris, France
Consultant Senior en Data Management – Gouvernance Data (Assurance) Consultant freelance en Data Management Nous recherchons un consultant Senior en Data Management pour le compte d’un de nos clients assurance dans le cadre d’un projet de renforcement de la gouvernance Data et de montée en compétence des équipes métiers. Contexte Dans un contexte de structuration des pratiques Data et d’accélération de la maturité des Data Domains Managers, la mission vise à constituer un pool d’experts capables d’intervenir à la fois sur les dimensions opérationnelles, méthodologiques et pédagogiques du Data Management, au sein d’un environnement exigeant et régulé. Rôles et responsabilités Contribuer à l’identification, à la structuration et à la valorisation des données clés de l’organisation, en lien avec les équipes métiers et Data. Mettre en place et maintenir une documentation de données fiable et exploitable (dictionnaires, métadonnées, référentiels), alignée avec les standards de gouvernance. Définir et piloter des indicateurs de qualité des données, analyser les écarts et accompagner les actions d’amélioration. Accompagner les Data Domains Managers dans l’appropriation des outils et des pratiques de Data Management, notamment via Collibra. Concevoir et animer des dispositifs de montée en compétence (supports, guides, ateliers) favorisant l’autonomie des équipes et la diffusion des bonnes pratiques. Intervenir en appui sur des initiatives Data structurantes afin de sécuriser les délais, la qualité et la cohérence globale du dispositif de gouvernance. Compétences requises Expertise confirmée en Data Management et Data Governance, acquise dans des environnements complexes et régulés. Maîtrise des outils de catalogage et de gouvernance des données, idéalement Collibra. Solide expérience en qualité des données (définition des règles, suivi des indicateurs, plans d’amélioration). Capacité à produire une documentation claire, structurée et orientée métiers. Forte aisance relationnelle et capacité pédagogique pour accompagner et faire monter en compétence des interlocuteurs non techniques. Autonomie, rigueur et capacité à évoluer dans un contexte assurance. Détails de la mission Démarrage : 16/02/26 Durée : 5.5 mois (jusqu'au 31/07/26) Lieu : Paris Statut : Consultant indépendant / freelance
Freelance

Mission freelance
Consultant MOE MSBI socle Data ETL

PROPULSE IT
Publiée le
MOE
MSBI

24 mois
275-550 €
La Défense, Île-de-France
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense
Freelance

Mission freelance
Data Engineer - LYON

TEOLIA CONSULTING
Publiée le
BI
Data Lake

12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
Freelance

Mission freelance
Data Manager Senior - Paris - Anglais

ARTESIA IT
Publiée le
Data governance

1 an
600-700 €
Paris, France
Nous recherchons un Data Manager pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle des données et la gouvernance des données, afin de garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines. 🔹 Présentation du poste • Architecture fonctionnelle des données & modélisation des données • Urbanisation des données : ownership par domaine, valorisation des actifs data et définition de la vision cible des données • Qualité des données & gouvernance des données • Travail dans un environnement Agile • Interaction avec les parties prenantes métiers et IT • Excellentes compétences relationnelles pour accompagner le changement de manière intelligente et constructive • Forte compréhension technique combinée à une solide vision métier • Profil proactif et autonome, capable de clarifier des sujets complexes et de favoriser l’alignement lorsque plusieurs équipes sont impliquées 🔹 Profil recherché • Forte expérience en modélisation des données et en pratiques de data management • Solide compréhension de la normalisation / dénormalisation, du SQL et de la traçabilité des données (data lineage) • Minimum 10 ans d’expérience professionnelle en Data Management • Maîtrise du français et de l’anglais • Présence en France requise • Basé à Paris (60 % télétravail / 40 % sur site)

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1742 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous