Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 489 résultats.
CDI

Offre d'emploi
Lead data engineer H/F

HAYS France
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer de nouveaux pipelines et transformations de données à partir de spécifications fonctionnelles Créer, maintenir et faire évoluer des rapports et tableaux de bord Power BI Optimiser les performances des traitements et des modèles de données Analyser et corriger les incidents techniques sur les flux de données et les tableaux de bord Garantir des délais de résolution adaptés, notamment pour les incidents bloquants liés aux données clients Assurer le suivi des tickets de bugs et produire un reporting clair à destination du management Animer les revues de code hebdomadaires pour l'ensemble de l'équipe data Accompagner techniquement et méthodologiquement les développeurs plus juniors Être force de proposition et interlocuteur technique de référence pour l'équipe Reprendre temporairement le périmètre d'un autre développeur en cas d'incident, d'urgence ou d'évolution critique Garantir la continuité opérationnelle du RUN data
Freelance

Mission freelance
Expert Data Microsoft : Power BI et Power Platform

Comet
Publiée le
microsoft
Microsoft Power BI
Power Platform

8 mois
420-630 €
Île-de-France, France
Bonjour à tous, notamment aux experts Data Microsoft ⚙️ évoluant sur Power BI et Power Platform 🔎 Je cherche un Consultant Data & Power Platform expérimenté pour rejoindre un Centre de Compétence IT Finance & Opérations, dans le cadre de projets stratégiques de pilotage de la performance produit. L’objectif est de construire et faire évoluer une chaîne de données complète et automatisée, reposant sur l’écosystème Microsoft Power Platform, afin de fiabiliser, transformer et exposer la donnée à des fins de reporting et de pilotage opérationnel. Le contexte est riche et hétérogène avec des flux de données multi-sources (Dataflows Power BI, Datasets, Excel, XML via VBA, APIs, Dataverse et Power Automate), dans une logique d’industrialisation et de fiabilisation de bout en bout. 💻 Ce que tu vas faire : - Cartographier les flux de données existants et proposer une architecture cible - Concevoir et optimiser des dashboards Power BI (modélisation, DAX, Power Query) - Développer et maintenir des rapports de pilotage de la performance produit - Automatiser les flux de données via Power Automate et connecteurs Power Platform - Intégrer et orchestrer des sources hétérogènes (Excel, XML, APIs REST, Dataverse) - Mettre en place des contrôles et data quality checks automatisés sur l’ensemble de la chaîne - Construire et suivre les KPI liés au déploiement et au pilotage des solutions - Assurer le support N2 sur les incidents Power Platform - Accompagner les équipes métiers (formation, documentation, support) - Garantir la documentation et la passation des solutions développées 🎯 Stack & environnement : Power BI / Power Query / DAX / Power Automate / Dataverse / APIs REST / JSON / XML / Excel VBA / Dataflows / Datasets / Power Platform Une belle fin de journée !
CDI

Offre d'emploi
Consultant Senior ETL/ Data Engineering H/F - CDI

GROUPE ARTEMYS
Publiée le
Conception

40k-45k €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en CDI. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40 000 - 45 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance
CDD

Offre d'emploi
Architecte Data conteneurisation H/F

SMARTPOINT
Publiée le
Angular
AWS Cloud
Java

12 mois
70k-95k €
650-730 €
Île-de-France, France
Dans un contexte de transformation digitale et de modernisation des architectures, vous intervenez en tant qu’expert technique et data pour garantir la performance, la conformité et la robustesse des socles techniques . Vous jouez un rôle clé dans la conception d’architectures modernes, notamment autour des environnements conteneurisés et cloud . Vos missions: Garantir la conformité et la performance des socles techniques, avec une expertise sur les architectures conteneurisées et le développement de services innovants Revues et audits de code Préconisations d'architectures (conteneurisation) Développement de PoC et de services avancés Expertise et support aux équipes projet Les livrables: 6 à 8 revues/audits de code par an 6 à 8 études d’architecture par an 3 à 5 PoC / PoT par an Participation à la résolution de 6 à 8 incidents par mois
Freelance

Mission freelance
DATA Engineer - AWS (DataOps)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Freelance

Mission freelance
Chef de Projet Data (F/H)

CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)

12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle

Mon Consultant Indépendant
Publiée le
Gestion de projet

40k-50k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage, vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables et produisez les PV de recette. En transverse, vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques et facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : · Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. · Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. · Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : · Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. · Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. · Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : · Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. · Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. · Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : · Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. · Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. · Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : · Démarrage : mai 2026 · Durée : jusqu'à fin décembre 2026 · Charge : temps plein · Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Freelance

Mission freelance
Data Configurateur

Codezys
Publiée le

12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
Freelance

Mission freelance
Consultant Senior ETL/ Data Engineering (H/F) - Freelance

GROUPE ARTEMYS
Publiée le
Conception

6 mois
400-500 €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en Freelance . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions : Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 400€ et 500€ (Selon votre expertise) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Data Engineer - Azure

CONCRETIO SERVICES
Publiée le
Databricks
PySpark

12 mois
300-400 €
Nouvelle-Aquitaine, France
Contexte Rejoignez une équipe agile SAFe pour concevoir et industrialiser des pipelines Data et ML robustes sur un environnement Azure moderne. Vous serez au cœur de la transformation des prototypes data scientists en solutions de production. Vos missions Pipelines Data & ML Développement de pipelines Batch sous Azure Databricks Utilisation avancée de PySpark, Delta Lake, MLFlow, Workflows Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring Collaboration avec les data scientists pour industrialiser leurs modèles Développement logiciel Conception de packages Python robustes et maintenables Respect des standards : qualité de code, tests unitaires, CI/CD, documentation Développement d'APIs via Azure Functions et/ou Azure Container Apps Contribution projet & RUN Participation aux phases projet : faisabilité, architecture, conception, réalisation, MEP Activités d'amélioration continue et participation aux rituels agiles
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle H/F

Mon Consultant Indépendant
Publiée le
AMOA
API
JSON

50k-60k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage : vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — : vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables, produisez les PV de recette. En transverse : vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques, facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : Démarrage : mai 2026 Durée : jusqu'à fin décembre 2026 Charge : temps plein Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Freelance

Mission freelance
Data Analyst Professional

Codezys
Publiée le
Data visualisation
Python
SQL

12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
CDD
CDI
Freelance

Offre d'emploi
Architecte Solutions SI- Expertise Data Modélisation 2

KEONI CONSULTING
Publiée le
COBOL
Java
TOGAF

18 mois
20k-60k €
250-750 €
Paris, France
CONTEXTE Dans le cadre de l’équipe Architecture Solutions SI de la Direction Stratégie SI Architecture et Cloud, En tant qu’Architecte Solutions SI / Expertise Data Modélisation : MISSIONS - Organiser et suivre l’accompagnement nécessaire des projets dans la définition de leur architecture de solution, en lien avec la stratégie et processus métier d’une part et les objectifs de rationalisation et d’alignement du SI d’autre part, et dans le respect du cadre d’architecture. - Définir, promouvoir, enrichir et suivre la bonne mise en œuvre opérationnelle du cadre normatif de constitution du SI. - Réaliser la modélisation fonctionnelle des objets Métiers dans le cadre du Modèle Fonctionnel . L'architecte avec son expertise sur les couches Data / Modélisation prends en charge les travaux associés au MF (Modèle Fonctionnel) correspondant à la modélisation fonctionnelle des objets Métiers définis depuis le MOM (Modèle Objets Métiers), en lien le DataOffice ou les Direction métiers. Dans le cadre des demandes projets, l’architecte définit le MF, met à jour la cartographie dans Mega HOPEX et peut être amené à accompagner les équipes de réalisation/développement dans la définition des MLD, Modèles logiques de données, déclinés depuis le MF (et potentiellement en support technique DBA Etudes, avec le MPD) Le MF, et ses déclinaisons, sont la base de l’ensemble des modèles de données des applications métiers et DataHub.
Freelance

Mission freelance
Expert Data Quality - Azure & IA

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
🚀 Expert Data Quality / Architecte Data - Azure & IA 📍 Paris | 💼 Mission longue | 🌍 FR / EN 🎯 Contexte Nous recherchons un expert Data Quality senior pour intervenir sur une plateforme data Azure à fort enjeu métier (finance / asset management) . L'objectif : structurer, automatiser et industrialiser la qualité des données , tout en exploitant les nouvelles capacités de l'IA . 🧩 Votre mission Vous interviendrez comme référent Data Quality / Architecte , avec une vision bout‑en‑bout : 🔍 Auditer l'existant et définir une stratégie Data Quality cible ✅ Concevoir et déployer des règles de qualité (complétude, cohérence, unicité, fraîcheur…) ⚙️ Automatiser les contrôles, rejets fonctionnels, alertes et workflows 📊 Mettre en place le monitoring, le reporting et les KPI de qualité 🤖 Intégrer l' IA pour : générer des règles de qualité détecter anomalies et dépassements de seuil faciliter les contrôles en langage naturel 🧑‍🤝‍🧑 Travailler avec les équipes IT et métiers et assurer le transfert de compétences 🛠️ Environnement technique Microsoft Azure Data Platform (Data Lake, Data Factory, Synapse, Purview) PySpark / SQL Power BI (exposition des KPI qualité) Data Governance & Data Quality frameworks 👤 Profil recherché 🎓 Bac+5 (école d'ingénieur ou équivalent) 🧠 7 à 12 ans d'expérience en qualité des données / data management 🏦 Expérience en finance / banque / asset management appréciée 🏗️ Profil Lead / Architecte , autonome et structurant 🌍 Français et anglais professionnels 🌟 Pourquoi cette mission ? Enjeux data critiques et visibles au plus haut niveau Plateforme Azure moderne Forte ambition autour de l'IA appliquée à la Data Rôle clé avec impact stratégique 📩 Intéressé(e) ? Envoyez‑nous votre profil ou échangeons rapidement.
CDI

Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1489 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous