Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 959 résultats.
Freelance

Mission freelance
Data Manager / Data Quality Lead H/F

Publiée le
Data governance

6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
CDI

Offre d'emploi
Développeur Python – Automatisation

Publiée le
Apache Airflow
CI/CD
Docker

40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
CDI

Offre d'emploi
Ingénieur data - Vannes

Publiée le
Big Data
Hadoop

28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
Freelance

Mission freelance
Expert Workday F/H

Publiée le
Big Data
Pilotage
Workday

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expert Spécialités technologiques : Data Visualisation, Restitution, Satisfaction client, Sage Protocoles de communication • Projet d’implémentation Workday (ensemble du scope RH, hors payroll) pour la Vague MISSIONS Objectifs : • Sécuriser l’interface Workday – Payroll (Sage) • Supporter l’interface avec notre Active Directory • Pilotage du Build des intégrations qui sera réalisé par le Partner Workday / intégrateur HR Path • Tests • Définition du plan de bascule détaillé en partenariat avec les différentes parties prenantes (IT / Business / Partner, etc.) • Autres activités en lien avec la mise en place d’intégrations avec Workday Expertise souhaitée Profil : • 7 ans d’expérience minimum sur ce poste • Expertise confirmée Workday • Expérience d’intégration avec Workday (Payroll) • Anglophone (ou Germanophone) • Sait collaborer avec plusieurs entités différentes • Sait travailler sous pression (deadline courte) Soft-Skills : • Leadership et esprit d’initiative • Rigueur et sens de l’organisation • Orientation résultats et satisfaction client • Gestion des attentes et des résistances au changement • Capacité à travailler en transversal avec les métiers, la DSI, la sécurité, etc. • Excellente communication écrite et orale
Freelance

Mission freelance
Data Governance Officer

Publiée le
Collibra
Data governance

2 ans
400-620 €
Paris, France
Télétravail partiel
Le Data Office recherche un consultant expérimenté pour accompagner le Head Of Data Office dans l’animation et le déploiement de de cette gouvernance, en lien étroit avec les métiers et l’IT. Objectifs de la mission : • Déployer la gouvernance des données en mode fédéré par data domain. • Renforcer la qualité, la traçabilité et la valorisation des données. • Accompagner les métiers dans l’appropriation des rôles et outils de gouvernance. • Piloter les comités et animer la communauté data. Missions détaillées Connaissance des données : • Documenter les données dans l’outil de gouvernance (DataGo) en collaboration avec les métiers et l’IT. • Structurer le glossaire métier, les objets métiers, les attributs et le lignage fonctionnel et technique. Qualité des données : • Formaliser et documenter les exigences de qualité par domaine. • Définir les indicateurs de qualité, les contrôles et les plans de remédiation. • Accompagner les métiers dans la mise en œuvre et le suivi opérationnel. Usages & valorisation Recenser et documenter les cas d’usage métiers. Gérer le portefeuille des cas d’usage et suivre les gains associés. Contribuer à la priorisation des initiatives data. Acculturation & conduite du changement Animer la communauté data (Data Owners, Stewards, Domain Officers). Produire des supports pédagogiques (guides, newsletters, ateliers). Contribuer à la montée en compétence des métiers sur les enjeux data. Pilotage & gouvernance Organiser et animer le comité de gouvernance des données. Préparer les supports du Comité Stratégie Data. Assurer le suivi des décisions, des plans d’action et des indicateurs de maturité.
Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Freelance

Mission freelance
Data / AI Engineer

Publiée le
Databricks
Git
Python

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Freelance
CDI

Offre d'emploi
Responsable Activité « Mainframe Cluster CXI

Publiée le
Data management

1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
DATA PRODUCT OWNER INTERMODAL H/F

Publiée le
BI
Data governance
Data management

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un/une Data Product Owner – Intermodal H/F . Le rôle consiste à définir, construire et faire évoluer le data product Intermodal, destiné à devenir le datamart de référence pour l’ensemble des données opérationnelles et commerciales issues des systèmes clés (TOPS, Mercosul, nouveau TMS, LARA, etc.). Le Data Product Owner agit comme point focal Business pour toutes les problématiques liées à la donnée Intermodal, couvrant à la fois les données transactionnelles et les données de référence, et garantissant une vision unifiée, fiable et exploitable pour le pilotage de la performance et la prise de décision. Objectif et livrable: Définition et pilotage de la vision produit data et de la roadmap du datamart Intermodal. Backlog data priorisé (domaines de données, règles de transformation, qualité, usages BI). Documentation complète des flux de données , interfaces et dépendances inter-systèmes. Mise en place et maintien d’un data catalog et des définitions métier associées. Définition et suivi des règles de qualité de données et des KPI associés. Livraison incrémentale de tables, vues, métriques et indicateurs validés. Préparation et sécurisation des rollouts data (notamment nouveau TMS). Compétences attendues: Data Product Management : vision produit, roadmap, backlog, priorisation multi-stakeholders. Data Warehousing / Datamart : concepts dimensionnels (facts/dimensions), ETL/ELT, historisation, data lineage. Data Governance & Data Quality : catalogage, définitions, ownership, règles de qualité, monitoring. Analyse métier & BI : traduction des besoins business en exigences data, KPI, règles de calcul, niveaux d’agrégation. Compréhension des modèles de données et échanges avec équipes data/IT (SQL de base apprécié). Outils BI : Power BI, Tableau, Qlik ou équivalent. Connaissance des environnements transport / logistique / intermodal fortement appréciée.
Freelance

Mission freelance
CONSULTANT AMOA COLLECTE  SOLVENCY 2-  DELIVERY PRUDENTIEL

Publiée le
Big Data
SAS
SQL

18 mois
100-500 €
Chartres, Centre-Val de Loire
Télétravail partiel
CONTEXTE : Dans le cadre du projet Solvency 2, dans l'équipe DELIVERY PRUDENTIEL, un besoin de renfort est nécessaire pour pouvoir répondre aux exigences réglementaires européennes. MISSIONS : assurer la collecte de données nécessaires au Projet Solva2 vis à vis des différents fournisseurs (SI de gestion / SI DATA) - Rédaction de spécifications générales afin d'implémenter les données demandées dans le cadre de la règlementation "Solvency 2" - Cadrage des validations - Exécution de cas de test pour valider les évolutions - Développer une proximité avec les métiers fournisseurs et consommateurs pour optimiser les travaux Solvabilité 2 Technologies requises : - Maîtrise du langage de requêtage SQL (Entrepôt de données avec base de données relationnelle Oracle) - Si possible une connaissance du logiciel SAS Guide
Freelance

Mission freelance
Customer Data Modeler

Publiée le
Big Data

6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Freelance

Mission freelance
Développeur / Data Engineer Observabilité h/f

Publiée le
Azure
DevOps
Grafana

6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Freelance

Mission freelance
Chef de Projet Data & BI (H/F)

Publiée le
BI
Big Data
SQL

1 an
400-580 €
Arcueil, Île-de-France
Télétravail partiel
Si la data et la BI sont pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Chef de Projet Data & Expert BI ! 🚀 Ton challenge si tu l’acceptes : Piloter des projets Data / BI de bout en bout, du recueil du besoin métier jusqu’à la mise en production Animer des ateliers avec les métiers (PO / ITBP) et challenger les besoins fonctionnels Concevoir et faire évoluer les architectures Data (on-prem / Azure) Modéliser les entrepôts de données (Data Warehouse / Datamart) Développer et superviser les flux ETL (SSIS), les procédures T-SQL et les modèles SSAS Tabular Créer et optimiser des rapports Power BI (performance, ergonomie, gouvernance) Garantir la qualité, la fiabilité et la performance des données en production
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance
CDI

Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)

Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
2959 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous