Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 770 résultats.
Freelance

Mission freelance
POT8768 - Un Architecte Data Azure sur Lyon

Publiée le
Azure

6 mois
260-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte Data Azure sur Lyon. Profil: Un expert capable de concevoir et piloter des architectures robustes et évolutives sur Azure, Faveod, et d’autres technologies pertinentes. Il interviendra sur des projets complexes : reprise et évolution de systèmes, transfert de compétences, et accompagnement stratégique. Missions : Mise en place technique : Installation et configuration des environnements, paramétrage des données, des accès et de la sécurité, mise en place des connecteurs hors production, proposition d’architecture et documentation. Adaptation des cas d’usage : Collecte des besoins, formalisation des scénarios, configuration des parcours et automatisations, recommandations d’optimisation. Formation & transfert : Création de supports et animation de sessions pour les équipes techniques et métiers. Pilotage & ajustement : Suivi des livrables et du planning, contrôle des KPI et qualité des données, ajustements, rapport final et recommandations (bilan et ROI). Profil : Expertise confirmée : Technologies Azure, Faveod, et autres outils pertinents. Expérience significative : Projets de consultation IT, reprise et évolution de systèmes, transfert de compétences, projets IT complexes. Certifications appréciées : Certifications Azure et autres liées aux technologies utilisées.
CDD

Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)

Publiée le
Java
Node.js
SQL

62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Freelance
CDI
CDD

Offre d'emploi
Expert OpenShift – Administration de Clusters (H/F) – Paris

Publiée le
Ansible
CI/CD
Kubernetes

1 an
Paris, France
Contexte : Nous recherchons un Expert OpenShift pour accompagner l’administration et l’évolution d’une infrastructure containerisée à grande échelle. Vous interviendrez au sein d’équipes techniques expérimentées pour garantir la stabilité, la performance et la sécurité des environnements OpenShift en production. 🎯 Vos principales missions : Assurer l’ administration, la supervision et le maintien en conditions opérationnelles (MCO) des clusters OpenShift. Gérer l’ évolution et l’optimisation des plateformes d’hébergement. Réaliser l’ analyse et la résolution des incidents de niveau 2 et 3 . Participer à l’ industrialisation et à l’automatisation des opérations (Ansible, scripts, CI/CD…). Apporter votre expertise et vos recommandations techniques pour améliorer la fiabilité et la performance. Assurer les astreintes et interventions en HNO si nécessaire. 🧩 Compétences techniques requises : OpenShift – Expert – impératif Kubernetes – Confirmé – impératif Linux (Red Hat / CentOS) – Confirmé – impératif Automatisation (Ansible, CI/CD, scripting) – Confirmé – impératif Anglais professionnel – impératif
Freelance

Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)

Publiée le
Agile Scrum
Angular
Apache Kafka

12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Freelance

Mission freelance
DATA Analyst SIG - GPS

Publiée le
Data analysis
SIG (Systèmes d'Information Géographique)

12 mois
550-580 €
Paris, France
Télétravail 100%
En quelques mots Cherry Pick est à la recherche d'un "DATA Analyst SIG - GPS" pour un client dans le secteur Public Description Data Analyst SIG – Expert Données GPS & Mobilité (H/F) Technologie clé : Databricks / Python / SQL Spatial Niveau : Expérimenté / Confirmé 🌐 Le Contexte Nous recherchons pour notre client, acteur majeur dans le secteur de la Mobilité/Logistique , un Data Analyst confirmé possédant une expertise pointue en Géomatique (SIG) . Vous rejoignez une équipe Data où la dimension spatiale est critique. Votre rôle ne sera pas simplement d'analyser des chiffres, mais de faire "parler" des millions de points GPS bruts pour reconstituer des parcours, optimiser des tournées et comprendre la réalité terrain des déplacements. 🎯 Votre Mission : Dompter la donnée GPS Vous êtes le référent sur le traitement et la valorisation des données de géolocalisation. Vous transformez une donnée brute, souvent bruitée, en informations métier fiables (arrêts, trajets, adresses). Vos défis techniques & fonctionnels : Qualité & Nettoyage de la donnée GPS : Détection et correction des points aberrants (outliers). Traitement du bruit GPS et lissage des trajectoires. Map Matching & Rapprochement Voirie : Projeter les points GPS bruts sur le filaire de voirie (snapping) pour reconstituer le trajet réel emprunté. Gérer les cas complexes (tunnels, zones urbaines denses, "canyons urbains"). Analyse des Arrêts & Adresses : Identifier les arrêts logistiques vs les arrêts de circulation (feux, bouchons). Réconcilier les positions d'arrêt avec les adresses distribuées (Geocoding / Reverse Geocoding précis). Détecter les changements de moyens de locomotion (multimodalité). Analyse Comportementale & Temporelle : Comparer les parcours réalisés entre différentes journées (analyse de régularité, détection d'anomalies de parcours). Calculer des indicateurs de performance spatiaux (ETA, temps de trajet réel vs théorique).
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Dremio

Publiée le
Dataiku

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
L'équipe Reporting & Analyse du risque contribue au pilotage mensuel du risque avec la mise à jour du datamart risque et des reportings risque. Pour cela un RUN mensuel devra perdurer en même temps que les développements induits pour les nouveaux usages data ( nouvelles expositions de données, nouveaux outils de data préparation DREMIO-DATAIKU et utilisation de PBI report server). Cette mission a pour objectif de développer des flux dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. La construction et le fonctionnement de ces mises en place devront être documentés. L’équipe reporting tient à cœur de développer des suivis automatisés et optimisés. Une intégration au run mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées dans le but de s’imprégner du fonctionnement de l’équipe. Prestations demandées • Comprendre le fonctionnement actuel du datamart risque. • Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU • Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel • Participation au double run mensuel
Freelance

Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.

Publiée le
Méthode Agile

6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Dataiku
ELK

3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Freelance

Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)

Publiée le
Microsoft Fabric
Python

6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Freelance

Mission freelance
237039/Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort

Publiée le
Informatica

3 mois
380-410 £GB
Niort, Nouvelle-Aquitaine
Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE
Freelance

Mission freelance
Architecte fonctionnel Data

Publiée le
TOGAF
UML

3 ans
500-800 €
Paris, France
Télétravail partiel
Pour renforcer nos équipes chez l'un de nos clients grands comptes, nous recherchons un Architecte fonctionnel Data F/H. Rattaché à la direction de l'Architecture et de la Sécurité de la DSI, ce pôle accompagne les métiers sur le plan d'architecture Data. Missions : Conseil et accompagnement en architecture fonctionnelle Data Aider les équipes produit à identifier et formaliser les exigences nécessaires à la bonne instruction de l’architecture. Apporter une expertise sur les solutions Data à mettre en œuvre au regard des besoins métiers. Accompagner les équipes dans la conception des solutions, et formaliser : - L’architecture émergente en phase d’affinage ; - L’architecture cible et les paliers d’évolution en phase de cadrage projet ; - Le dossier d’architecture (modélisation des données, cinématique fonctionnelle, cartographie produit, flux, principes, exigences et hypothèses). Proposer et mettre en œuvre des évolutions du cadre d’architecture et du cadre opérationnel (templates, modélisations, cartographies), en particulier sur les projets à dominante Data. Livrables attendus Documents d’architecture : dossiers projet et produit (Design Authority, HLD, modélisations Enterprise Architect). Livrables de cadrage : expression de besoin, dossier de choix de scénario SI, dossier d’architecture, questionnaire d’autoévaluation. Livrables d’engagement : dossiers de revue par les corps instructeurs, dossier d’engagement. Supports et comptes rendus des ateliers et réunions démontrant l’avancement des travaux. Synthèse hebdomadaire à destination de l’architecte référent sur les points structurants d’architectures. À l’issue des études, la mission pourra se poursuivre par un accompagnement dans la mise en œuvre des solutions définies, incluant des tâches de pilotage et de coordination (rôle de Chef de projet Architecture).
Freelance

Mission freelance
Ingénieur DataOps / SRE Data

Publiée le

5 mois
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Freelance
CDI

Offre d'emploi
Data Ops

Publiée le
Apache Spark

1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance

Mission freelance
Consultant Expert Fonctionnel Finance & Risque SAP FC

Publiée le

8 mois
500 €
France
Missions principales Contribuer à la mise en œuvre du système d'information dédié à la consolidation et aux reportings réglementaires. Pilotage de projet : cadrage, planification, suivi des livrables, coordination des acteurs. Assurer la conception fonctionnelle et technique des architectures dans le cadre des projets Finance/Risque. Apporter une expertise métier sur les domaines : statutaire, prudentiel, liquidité, résolution et pilotage. Participer à la sélection et intégration des solutions ERP Finance & Risque proposées par les éditeurs du marché.
Freelance

Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)

Publiée le
Azure

12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Freelance

Mission freelance
Chef de Projet Data Client Technico-fonctionnel

Publiée le
Data quality
Modèle Conceptuel des Données (MCD)
Transformation digitale

3 mois
550-600 €
Guyancourt, Île-de-France
Télétravail partiel
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
2770 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous