L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 666 résultats.
Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER
Publiée le
AWS Cloud
DBT
Snowflake
8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Mission freelance
Data Engineer DBT / Snowflake
Publiée le
DBT
3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)
Publiée le
DBT
1 an
45k-55k €
470-560 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Offre d'emploi
Data Engineer Streamlit SnowFlake expérience santé
Publiée le
Python
Snowflake
Streamlit
3 mois
40k-45k €
340-500 €
Roubaix, Hauts-de-France
Télétravail partiel
La prestation consiste à contribuer activement à la mise en œuvre d’une application Streamlit dédiée à la tarification des contrats Santé et Prévoyance, s’appuyant sur notre socle Snowflake. Cette application sera mise à disposition des équipes métiers. La mission inclut : - Développer des écrans interactifs avec Streamlit - Participer à la conception du modèle de données sous-jacent - Contribuer à la définition des règles de gestion et des calculs pris en charge par l’application - Effectuer les tests (recette) afin de garantir la conformité de l’interface et des calculs aux besoins métiers - Assurer l’optimisation et la performance des traitements - Rédiger la documentation applicative Équipe projet : - Deux développeurs Streamlit/Snowflake - Un chef de projet
Offre d'emploi
Data Quality Analyst
Publiée le
Data governance
Data quality
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Mission freelance
Data Automation Engineer Confirmé
Publiée le
CI/CD
Dataiku
DevOps
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Offre premium
Mission freelance
CUSTOMER DATA MODELER H/F
Publiée le
Data governance
Gouvernance
Master Data Management (MDM)
6 mois
Paris, France
Télétravail 100%
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Customer Data Modeler dans le cadre du programme MDM Voyager phase 2 . La mission vise à renforcer la structuration, la modélisation et la gouvernance des données Clients au sein de l’écosystème Master Data Management. Le consultant travaillera avec les équipes IT, les métiers et les équipes Data Governance afin de documenter, améliorer et aligner durablement les modèles et processus MDM liés au domaine Client. Objectif et livrable: Conception et documentation du Customer Master Data Model . Définition des processus de gouvernance, règles de qualité, rôles et responsabilités. Alignement avec les équipes métier et IT pour assurer cohérence et intégration dans le programme MDM Voyager. Livrables attendus : modèles de données, dictionnaires, règles de qualité, schémas de gouvernance, rapports de validation. Compétences attendues : Expertise forte en Master Data Management (Customer) : modélisation, qualité, gouvernance. Très bonne compréhension des processus du domaine Client (Customer lifecycle, segmentation, identification…). Maîtrise de la documentation de modèles conceptuels/logiques/physiques. Connaissance de SAP S/4HANA et SAP MDG (atout majeur). Capacité à collaborer avec plusieurs parties prenantes IT / Business. Excellente aptitude à formaliser règles, processus et dictionnaires de données.
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Mission freelance
Customer Data Modeler
Publiée le
Big Data
6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Mission freelance
PRODUCT OWNER DATA PRODUIT
Publiée le
Snowflake
12 mois
560-570 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
Mission freelance
Architecte Data
Publiée le
Amazon S3
AWS Glue
DBT
6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
Mission freelance
PRODUCT OWNER DATA SUPPLY
Publiée le
Snowflake
12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
Business analyst data / BI
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Créer une société et toucher le chômage, comment gérer ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Décider quand on est freelance selon ses chiffres
- Facturation électronique 05 : Que faire si pas de factur.X ?
- Une ESN peut-elle suspendre les paiements pour ça ?
- Micro entreprise ACRE et ARCE
1666 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois