Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Lead Reconciliation - 8 ans d'expérience
Octopus Group recherche un·e Data Lead Reconciliation - Secteur Assurance. Vous prendrez en charge les activités de rapprochement de bout en bout, incluant la validation de la migration, la mise en œuvre des pistes d'audit et l'assurance de l'exactitude des données, pour garantir l'harmonisation des systèmes client et internes. Expérience avérée en migration et rapprochement de données, dans le secteur de l'assurance et un leadership technique, ainsi qu'une expertise pratique des outils ETL, de SQL et de l'intégration de systèmes existants. Principales responsabilités : Diriger et coordonner les initiatives de réconciliation des données au sein d’équipes interfonctionnelles. Concevoir et mettre en œuvre des cadres de réconciliation pour valider des migrations de données complexes. Effectuer une analyse des causes profondes des incohérences de données et assurer la résolution sur tous les systèmes. Collaborer avec les parties prenantes du client pour aligner les exigences commerciales sur la logique de réconciliation. Guider les équipes (sur site et nearshore) dans la mise en œuvre technique des contrôles de qualité des données. Créez de la documentation, des tableaux de bord et des rapports pour les pistes d’audit et les processus de rapprochement. Soutenir la validation post-migration et l'amélioration continue des flux de travail d'intégrité des données. Valider et mettre en œuvre les règles et les mappages de transformation des données
Offre d'emploi
Data Engineer (Bordeaux)
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Offre d'emploi
Architect Data (H/F)
La mission consiste à assurer la responsabilité de l’architecture de bout en bout des solutions data et analytiques. L’architecte devra concevoir et piloter des solutions sécurisées, évolutives et optimisées en coûts, en s’appuyant sur la plateforme de données de l’entreprise (entrepôt de données, lakehouse, streaming, ML, environnements cloud et on-premise). L’objectif est de garantir la cohérence de l’architecture, la gouvernance des données et la performance des usages analytiques et métiers. Activités principales • Définir et maintenir l’architecture data couvrant ingestion batch/stream, entrepôt de données (modèles Kimball/Star), lakehouse (Iceberg/Trino) et exposition via SQL, API ou couche sémantique. • Concevoir les modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation). • Encadrer la mise en place de la couche sémantique et des métriques, assurer la gouvernance des KPI, optimiser les performances des requêtes et tableaux de bord, favoriser l’auto-consommation via dbt/metrics layer et catalogues. • Mettre en place les pratiques d’observabilité, runbooks, SLOs, backfills, ainsi que l’optimisation coûts/performance (FinOps). • Définir les standards de gouvernance : métadonnées, documentation, data contracts, blueprints, architecture decision records (ADR). • Contribuer à la définition et à la priorisation des besoins métiers en lien avec les Product Owners, Delivery Leads et parties prenantes. • Fournir des rapports réguliers sur l’avancement, les jalons atteints et les difficultés rencontrées. Livrables attendus • Architecture one-pager, modèles sémantiques et KPI tree. • Data contracts, ADRs/HLD. • Runbooks, SLOs, modèles de coûts. • Documentation technique et fonctionnelle.
Mission freelance
Data Scientist – Projet Contracts AI
En tant que Data Scientist, vous intégrerez l’équipe projet IA d'un de nos client et participerez aux activités suivantes : Mettre en œuvre la numérisation et la structuration du portefeuille de traités (traités et polices). Développer des analyses de wording et des analyses de tendances à partir des données contractuelles. Créer des jumeaux numériques alignés avec le modèle de données établi. Mettre en place des contrôles qualité et validation pour assurer l’intégrité des données. Produire une documentation technique complète pour l’intégration des données dans les modèles analytiques. Travailler en mode agile, avec des livrables versionnés sous GitLab (gitflow / mlflow).
Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark
Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP
Offre d'emploi
Data Engineer
Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.
Offre d'emploi
Expert Cybersécurité Data N3 Varonis / Purview
Nous sommes à la recherche d'un Expert Cybersécurité Purview / Varonis C'est une prestation dans le but de proposer des services de sécurité autour de la donnée. La mission sera en charge du maintien en condition opérationnelle et du support niveau 3 de la plateforme Varonis/purview et des services sur un périmètre de responsabilité international. Mise en œuvre, maintient et suivi du déploiement de solutions de sécurité autour des données non structurées de la banque à l'aide des produits VARONIS et Microsoft PURVIEW.
Offre d'emploi
BI / Big Data – Data Manager Senior
Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.
Offre d'emploi
DATA ENGINEER MSBI / GCP
Contexte du poste Dans le cadre d’un programme de migration des solutions décisionnelles Microsoft vers Google Cloud Platform (GCP) , nous recherchons un Consultant Data Engineer expérimenté capable d’assurer la transition technique et fonctionnelle d’un environnement MSBI on-premise vers un écosystème GCP cloud-native . L’objectif est de moderniser la plateforme BI existante (SSIS, SSAS, SQL Server) vers des architectures Cloud basées sur BigQuery , Dataflow , Cloud Storage et Looker Studio , tout en garantissant la continuité des flux , la performance et la qualité des données . Missions principales Participer aux ateliers de cadrage technique et fonctionnel pour définir la stratégie de migration MSBI → GCP. Analyser l’existant MSBI (packages SSIS, cubes SSAS, rapports SSRS / Power BI) et identifier les dépendances techniques. Concevoir la nouvelle architecture cible GCP (BigQuery, Dataflow, Composer, Cloud Storage, IAM). Assurer la migration et la réécriture des flux ETL vers GCP (Dataflow / DBT / Python). Mettre en place les pipelines d’intégration continue et les jobs d’orchestration (Airflow / Cloud Composer). Optimiser les performances et les coûts d’exécution des traitements cloud. Garantir la gouvernance, la sécurité et la qualité des données dans le nouvel environnement. Accompagner les équipes internes dans la montée en compétences sur GCP . Compétences techniques requises Environnements Microsoft : SQL Server (T-SQL, procédures stockées, optimisation requêtes) SSIS (conception de flux ETL complexes) SSAS (tabular / multidimensionnel) Power BI / SSRS pour la partie reporting Environnements Google Cloud : BigQuery (datawarehouse cloud, modélisation, partitionnement, optimisation) Dataflow / Cloud Composer (orchestration et traitement de données) Cloud Storage, Pub/Sub, IAM Looker Studio pour la restitution Autres atouts : Connaissance de DBT , Python , ou Terraform Notions de DataOps , CI/CD , gouvernance des données Expérience sur des projets de migration cloud (Azure, AWS, ou GCP)
Offre d'emploi
Responsable d'applications RUN confirmé
Bonjour, Nous recherchons pour notre client basé en région parisienne un Responsable d’Applications – confirmé (4 - 10 ans d’expérience) Objectif : Piloter et sécuriser les évènements de production Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques méthode ITIL - Expert - Impératif méthode Agile - Confirmé - Impératif Azure Datafactory - Confirmé - Important Databricks - Confirmé – Important Description détaillée Responsable d'application au Datalab : Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. * Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. * Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. * Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. (*) On entend par « applications » : les programmes, les données, les paramétrages, les services exposés (API), les infrastructures techniques et les interfaces/flux inter applicatifs. Compétences requises : * Faire preuve de rigueur et être force de proposition * Savoir travailler en équipe et avoir de bonnes qualités relationnelles * Excellentes compétences techniques : Connaissance et application de la méthode ITIL (Gestion des incidents, problèmes, etc..) Connaissance et application de la méthode Agile Connaissance Azure Datafactory Connaissance Databricks (Spark SQL, Scala) Connaissance d'outils ITSM (Service Now ou équivalent) Données complémentaires Date de démarrage 03/11/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes nonw Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).
Mission freelance
Consultant Marketing BI / Power BI / Salesforce H/F/NB
Un grand groupe leader dans le secteur de l'assurance recherche un consultant BI Senior pour renforcer son équipe Marketing sur des projets stratégiques d'automatisation et de performance analytique. Vous interviendrez dans un environnement international stimulant. 🚀 Vos missions : Automatiser les reportings marketing multi-stakeholders Fiabiliser et structurer les flux de données issus de Salesforce et autres sources externes Créer des tableaux de bord Power BI avancés avec Power Query et DAX Croiser et intégrer des données complexes pour des analyses marketing approfondies Optimiser la performance analytique de l'équipe Marketing
Offre d'emploi
Data Engineer
Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais
Offre d'emploi
Data & Analytics Projects
🎯 Contexte de la mission Mission freelance au sein d’un grand groupe international du secteur luxe . L’objectif : piloter la Federated Data Platform (FDP) et assurer le delivery & run du programme Single Source of Truth (SSoT) , dans un environnement Microsoft Fabric . Le rôle combine pilotage produit , coordination IT / data , et accompagnement du changement dans un contexte international exigeant. 🧭 Missions principales Piloter la feuille de route de la Federated Data Platform : releases trimestrielles, priorisation, suivi des livrables. Assurer le delivery et le run du programme SSoT : gestion du backlog, coordination des développements, supervision des réconciliations hebdomadaires. Animer la gouvernance data : coordination entre Divisions , Régions et Corporate , arbitrage des priorités. Garantir la qualité, la sécurité et la conformité des données (KPI, reporting, audits). Collaborer étroitement avec les équipes Cloud & Data Architecture , les intégrateurs et experts BI. Préparer et transférer le handover vers les équipes internes en fin de mission. 🧠 Profil recherché Freelance confirmé(e) en pilotage de projets Data & Analytics (8–12 ans d’expérience). Solide maîtrise de Microsoft Fabric (OneLake / Lakehouse), Power BI , Azure AD , Git , Azure DevOps . Connaissances en DataOps et FinOps appréciées. Français & Anglais courants indispensables (environnement international). Excellent leadership , sens de la priorisation et communication claire . Expérience dans le retail ou le luxe serait un plus. ⚙️ Environnement technique Microsoft Fabric (OneLake / Lakehouse) Power BI , Azure AD , Azure DevOps , Git Méthodologies DataOps , bonnes pratiques FinOps Collaboration avec partenaires intégrateurs et data custodians 📅 Conditions de mission Lieu : Neuilly-sur-Seine (présence sur site attendue 2 à 3 jours / semaine) Durée : 6 mois (03/11/2025 → 30/04/2026) Statut : Freelance / indépendant(e) Temps plein
Offre d'emploi
Data Architecte
3. Compétences requises - Expérience : o 7 à 12 ans en ingénierie/architecture data avec DWH (Kimball/Inmon), BI, Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. o Modélisation sémantique, data contracts, performance engineering, dbt/metrics layer, GCP + on-premise, IaC/CI-CD pour la data. - Livrables clés : o Architecture one-pager, data contracts, ADRs/HLD, modèle sémantique & arbre de KPIs, runbook/SLOs, modèle de coûts. 4. Gestion des parties prenantes - Collaboration étroite avec les parties prenantes métiers, delivery leads et product owners pour recueillir les besoins, prioriser les fonctionnalités à forte valeur ajoutée, et présenter régulièrement les avancées à la direction. Résumé : Ce SOW définit une mission de Solution Data Architect axée sur la conception, la gouvernance et l'optimisation de solutions data avancées, avec une forte exigence de qualité, de documentation, de collaboration transverse et d'innovation technologique. Lieu : Velizy Lieu d'exécution : Vélizy avec possibilité de télétravail (max 2 jours/semaine).
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.