Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 091 résultats.
Freelance

Mission freelance
Tech lead .NET

Publiée le
.NET
Apache Kafka
API

6 mois
400-600 €
Nantes, Pays de la Loire
Télétravail partiel
En tant que Tech Lead .NET, vous interviendrez sur des solutions de confiance numérique, avec un focus sur la signature électronique et la sécurité des applications critiques. Votre rôle sera de combiner expertise technique et leadership pour accompagner une équipe en pleine montée en charge. Vous participerez activement au développement (80 % du temps) tout en assurant un encadrement technique (10 à 20 %). Vous serez impliqué dans la mise en place de pipelines CI/CD, l’optimisation des socles mutualisés et l’intégration d’environnements modernes (conteneurs, API, Kafka). Ce poste requiert une vision globale des architectures et une forte sensibilité aux problématiques de sécurité.
Freelance

Mission freelance
Chef de projet - Carve-in, fusion-acquisition - M&A

Publiée le
Data governance

3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients, dans le secteur de la distribution B2B, un chef de projet qui va venir assurer une intégration complète des processus et outils de la société rachetée. Le profil doit nécessairement avoir DÉJÀ fait des carves-in, fusion acquisition, M&A Missions principales : 1. Pilotage global du projet d’intégration • Orchestrer et coordonner l’intégration de la société dans la chaîne de publication standard du Groupe. • Définir le plan de transformation (cadrage, étapes clés, roadmap, risques, budgets, dépendances). • Assurer la synchronisation des chantiers fonctionnels et techniques • Superviser la gouvernance de projet, le reporting et les arbitrages auprès des sponsors et directions métier/IT. 2. Cadrage fonctionnel et harmonisation des processus • Cartographier les processus actuels de publication et de gestion produit de la société en question • Identifier les écarts avec le modèle standard et des solutions • Définir les flux cibles, les modèles de données et les interfaces inter-systèmes. • Garantir la cohérence des processus métiers à travers les différents outils. 3. Coordination multi-acteurs et conduite du changement • Fédérer les équipes locales et les équipes centrales autour d’une vision commune. • Organiser et animer les comités, ateliers et points d’avancement (métier, IT, data, publication). • Accompagner les équipes dans la montée en compétence sur les outils et standards Groupe. • Anticiper et gérer les impacts humains, organisationnels et techniques liées à l’intégration. 4. Data & publication : cohérence end-to-end • Garantir la qualité, fiabilité et complétude des données produits tout au long du processus. • S’assurer de l’alignement entre les systèmes • Suivre les indicateurs de performance et d’adoption (KPI qualité data, flux, taux de publication, délais). • Travailler en synergie avec les équipes Data / BI
Freelance

Mission freelance
Data Manager / Data Quality Lead H/F

Publiée le
Data governance

6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Freelance

Mission freelance
Consultant IDR – Data Replication & Kafka (H/F)

Publiée le
Apache Kafka

5 jours
France
Télétravail 100%
Nous recherchons un consultant senior pour accompagner l’évolution d’un modèle de réplication de données vers une architecture Publish & Subscribe dans un environnement IBM. Missions principales : Analyser l’architecture de réplication existante. Configurer et optimiser CDCRE for Kafka . Paramétrer les User Exit et propriétés Kafka. Assurer la publication au format key/value. Stabiliser la chaîne de réplication et documenter les bonnes pratiques. Conseiller sur les évolutions cibles et les modèles de réplication adaptés.
Freelance

Mission freelance
Développeur Java / Kafka F/H

Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

12 mois
450-480 €
La Défense, Île-de-France
Télétravail partiel
Description de la prestation : Le consultant intégrera une squad du programme Galaxy. En intégrant l’équipe de développeurs, il participera à l’estimation et la réalisation des fonctionnalités. En lien avec le Tech Lead de sa Squad, il travaillera avec un Ops pour la partie CICD et sera garant de la qualité du code produit. Les missions s’articulent autour des axes suivants : • Participer aux phases de Discovery ; • Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; • Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; • Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) • Réaliser les développements en suivant les bonnes pratiques de développement de l'entreprise. • Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; • Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; • Assurer le support lors des mises en production de chacune des évolutions ; • Assurer le maintien en condition opérationnelle des applications du périmètre. • Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter) Les aptitudes requises : Compétences métiers/techniques : • Développement Back-End en JAVA 17/21 • Les frameworks JAVA communs tels que Spring (Web, Security, Boot...) • Connaissance et pratique d’Apache Kafka (Producer, Consumer). Les connaissances de Kafka Stream, Kafka Connect et du Schema Registry seront considérées comme un gros plus • Maitrise des API REST • Les modèles d’architectures Microservice • Connaissance et pratique de l’architecture hexagonale • Connaissance et pratique du TDD, BDD, Cucumber • Pratique de la sécurité des API • Serveur d'application Jetty, Tomcat et des technologies JEE • Utilisation des outils de CICD (Gitlab) et de contrôle de source (Git) • Utilisation de Docker et Kubernetes • Les bases de données et la modélisation (SQL, PostgreSQL, Oracle, MySQL, Hibernate) • Les méthodologies Agile (User story, backlog, cérémonies, etc …)
Freelance

Mission freelance
Administrateur de plateforme Big Data

Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)

3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

Publiée le

50k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : sliv9e59p7
Freelance

Mission freelance
Customer Data Modeler

Publiée le
Big Data

6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Freelance
CDI

Offre d'emploi
Responsable Activité « Mainframe Cluster CXI

Publiée le
Data management

1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Freelance

Mission freelance
Chef de Projet Data & BI (H/F)

Publiée le
BI
Big Data
SQL

1 an
400-580 €
Arcueil, Île-de-France
Télétravail partiel
Si la data et la BI sont pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Chef de Projet Data & Expert BI ! 🚀 Ton challenge si tu l’acceptes : Piloter des projets Data / BI de bout en bout, du recueil du besoin métier jusqu’à la mise en production Animer des ateliers avec les métiers (PO / ITBP) et challenger les besoins fonctionnels Concevoir et faire évoluer les architectures Data (on-prem / Azure) Modéliser les entrepôts de données (Data Warehouse / Datamart) Développer et superviser les flux ETL (SSIS), les procédures T-SQL et les modèles SSAS Tabular Créer et optimiser des rapports Power BI (performance, ergonomie, gouvernance) Garantir la qualité, la fiabilité et la performance des données en production
Freelance

Mission freelance
CONSULTANT AMOA COLLECTE  SOLVENCY 2-  DELIVERY PRUDENTIEL

Publiée le
Big Data
SAS
SQL

18 mois
100-500 €
Chartres, Centre-Val de Loire
Télétravail partiel
CONTEXTE : Dans le cadre du projet Solvency 2, dans l'équipe DELIVERY PRUDENTIEL, un besoin de renfort est nécessaire pour pouvoir répondre aux exigences réglementaires européennes. MISSIONS : assurer la collecte de données nécessaires au Projet Solva2 vis à vis des différents fournisseurs (SI de gestion / SI DATA) - Rédaction de spécifications générales afin d'implémenter les données demandées dans le cadre de la règlementation "Solvency 2" - Cadrage des validations - Exécution de cas de test pour valider les évolutions - Développer une proximité avec les métiers fournisseurs et consommateurs pour optimiser les travaux Solvabilité 2 Technologies requises : - Maîtrise du langage de requêtage SQL (Entrepôt de données avec base de données relationnelle Oracle) - Si possible une connaissance du logiciel SAS Guide
Freelance
CDI

Offre d'emploi
Data Product Manager

Publiée le
Data management

1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Freelance

Mission freelance
DATA PRODUCT OWNER INTERMODAL H/F

Publiée le
BI
Data governance
Data management

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un/une Data Product Owner – Intermodal H/F . Le rôle consiste à définir, construire et faire évoluer le data product Intermodal, destiné à devenir le datamart de référence pour l’ensemble des données opérationnelles et commerciales issues des systèmes clés (TOPS, Mercosul, nouveau TMS, LARA, etc.). Le Data Product Owner agit comme point focal Business pour toutes les problématiques liées à la donnée Intermodal, couvrant à la fois les données transactionnelles et les données de référence, et garantissant une vision unifiée, fiable et exploitable pour le pilotage de la performance et la prise de décision. Objectif et livrable: Définition et pilotage de la vision produit data et de la roadmap du datamart Intermodal. Backlog data priorisé (domaines de données, règles de transformation, qualité, usages BI). Documentation complète des flux de données , interfaces et dépendances inter-systèmes. Mise en place et maintien d’un data catalog et des définitions métier associées. Définition et suivi des règles de qualité de données et des KPI associés. Livraison incrémentale de tables, vues, métriques et indicateurs validés. Préparation et sécurisation des rollouts data (notamment nouveau TMS). Compétences attendues: Data Product Management : vision produit, roadmap, backlog, priorisation multi-stakeholders. Data Warehousing / Datamart : concepts dimensionnels (facts/dimensions), ETL/ELT, historisation, data lineage. Data Governance & Data Quality : catalogage, définitions, ownership, règles de qualité, monitoring. Analyse métier & BI : traduction des besoins business en exigences data, KPI, règles de calcul, niveaux d’agrégation. Compréhension des modèles de données et échanges avec équipes data/IT (SQL de base apprécié). Outils BI : Power BI, Tableau, Qlik ou équivalent. Connaissance des environnements transport / logistique / intermodal fortement appréciée.
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance

Mission freelance
Tech lead Data

Publiée le
API
Computer vision
IA Générative

12 mois
Saint-Denis, Île-de-France
Télétravail partiel
Client : Organisation de transport ferroviaire Poste : Responsable technique en Data Nombre de postes : 1 Expérience : > 7 ans Localisation : Commune de la banlieue parisienne Deadline réponse : 05/12/2025 Démarrage : 05/01/2026, mission d'un an Type de contrat : Salarié ou Freelance L’Ingénierie des équipements de l’organisation de transport a identifié de nombreuses zones d’usage des technologies d’intelligence artificielle pour son domaine d’activité. On peut notamment citer : La maintenance prédictive (séries temporelle et événementielles), L’aide à l’organisation de la maintenance (tri, priorisation et regroupement d’opérations, en gérant diverses contraintes d’exploitation), La vision artificielle pour le contrôle qualité ciblé, l’exploitation des véhicules… Mais aussi la gestion et l’utilisation de l’information, qui touchent l’aide aux techniciens (historique des pannes, préconisations de maintenance…) et encore plus les processus d’ingénierie : extraction d’information, comparaison, résumé, aide à la génération et à la transformation de documents. Missions : Au sein du département développement, le prestataire devra apporter une expertise en intelligence artificielle (IA) et en intégration de l’IA (IAG) pour répondre aux besoins de l’Ingénierie des équipements et de ses partenaires : Évaluation des solutions innovantes pour répondre à un cas d’usage précis : solutions open source ou propriétaires / disponibilité d’un ensemble de briques technologiques permettant de réaliser la fonction / développement spécifique nécessaire. Prototypage d’applications et briques applicatives simples, notamment pour l’accélération des processus documentaires (plus qu’un MVP, un prototype fonctionnel et au-delà). Aide à l’orientation stratégique pour le développement des capacités techniques en IA de l’Ingénierie. Il collaborera avec le responsable de la feuille de route IA, la communauté interne en intelligence artificielle, ainsi que divers chefs de projets.
Offre premium
Freelance

Mission freelance
Référent Data

Publiée le
Architecture
Data governance

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
2091 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous