Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Mission freelance
Data Architect – Core Model CRM
Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.
Mission freelance
Consultant Data Analyst – Taxonomie des données RH (Banque / Assurance)
Nous recherchons un consultant Data Analyst pour accompagner un projet de mise en place d’une taxonomie des données RH au sein d’un acteur bancaire. Mission : Identifier et catégoriser les données RH (sensibilité, besoins métier, outils) Définir une nomenclature claire avec métadonnées et standards de qualité Relier les données aux processus et glossaires métiers existants Intégrer les indicateurs RH aux taxonomies Rédiger un support de référence sur la méthodologie retenue Profil recherché : Expérience confirmée en Data Analyst Connaissance du domaine RH Compétences en organisation/méthodologie et conformité des données Aisance dans le recueil des besoins et excellentes qualités rédactionnelles Détails : Démarrage : 15 septembre 2025 Durée : 3,5 mois (70 jours env.), renouvelable jusqu'à 3 fois Lieu : Paris Freelance Temps plein
Mission freelance
BA Data
Bonjour, Sous la recherche de l'un de mes clients parisien dans le secteur du luxe basé en IDF, je suis à la recherche d'un Business Analyst orienté Data + coordo' équipe. Contexte du projet : Dans le cadre de la refonte de l’outil d’administration client, le projet vise à offrir une plateforme modulaire, évolutive et maintenable, intégrée à l’écosystème interne. Le Business Analyste (BA) jouera un rôle clé dans la phase de cadrage, la définition des exigences fonctionnelles et l’accompagnement des équipes techniques et métiers. Objectifs du poste : - Assurer la bonne compréhension des besoins métiers et leur traduction en spécifications fonctionnelles claires et exploitables. - Garantir la couverture complète des exigences fonctionnelles par la solution proposée. - Participer activement au Sprint 0 et aux ateliers de conception. - Accompagner les équipes dans la phase de recette et de validation fonctionnelle.

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)
Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).
Mission freelance
Tech Lead Data Databricks / Azure
Nous recherchons un Tech Lead Data expérimenté pour piloter l’architecture, la conception et la gouvernance d’une Data Platform moderne construite sur Azure et Databricks . Environnement exigeant et stimulant, avec des projets stratégiques autour du traitement de données à grande échelle, de la qualité et de l’industrialisation. ✅ Piloter les choix techniques autour de Databricks & Azure Data Services ✅ Encadrer les équipes de Data Engineers (code review, support, best practices) ✅ Industrialiser les pipelines (CI/CD, monitoring, sécurité, catalogues) ✅ Accompagner la mise en œuvre du Unity Catalog ✅ Assurer la scalabilité et la performance des traitements ✅ Collaborer avec les architectes, la DSI, les métiers et le cloud center of excellence

Offre d'emploi
Data Engineer Talend - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Mission freelance
Un Architecte Solution Data sur Paris + TT
Smarteor recherche pour l'un de ses clients, Un Architecte Solution Data sur Paris + TT Projet : La définition / accompagnement des roadmap technologiques de ces produits, dans le respect de la trajectoire de modernisation du SI fixé. La promotion des offres technologiques La définition des architectures techniques et des livrables correspondants Principaux livrables : Définir et animer l’architecture technique des solutions, produire les livrables d’architecture techniques, compléter et superviser l’évolution de ces Architectures Technique au cours de leur mise en œuvre Accompagnement des équipiers (architecte applicatif, squad) et du Cluster (chef de projet, ingénieur de production, intégrateur, etc) dans l’implémentation et la vie de la solution technique définie, dans une logique Devops et agile Dont contribution aux phases de tests et benchs Dont le traitement des obsolescences techniques Suivi des mises en œuvre/construction de produits techniques, en liaison avec les socles technologiques fournisseurs (animation et/ou suivi) Dossiers et schéma d’architecture, et livrables associés Documents de vulgarisation Rapports techniques, Compétences requises : Architecture technique de solutions hybrides (native, monde open, mainframe) Dont Conteunerisation , micro-services, kubernetes Dont Virtualisation (EsX/VM) et réseaux (flux, transferts, DNS, firewall,proxy…) Base de données relationnelles et NoSQL (MongoDB, Elastic, etc..), gestion de cache Framework BigData (Hadoop, Spark, etc..) Connaissances en développement sur des nouvelles technologies Environnement de travail Windows Concept DEVOPS et AGILITE Bon esprit de synthèse orale et écrite Aisance relationnelle Prise de recul, esprit synthétique et d’alerting Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.
Mission freelance
Architecte Solution Data - 778
Dans le cadre de la modernisation de son système d'information et de l'évolution de son architecture Data, notre client bancaire recherche un Architecte Solution Data. Vous serez en charge de définir, concevoir et piloter l’architecture technique des solutions data et contribuer à l’implémentation des technologies de nouvelle génération (Big Data, conteneurisation, microservices, etc.), dans une logique DevOps et agile. Missions attendues : - Définir l’architecture technique des produits et solutions Data - Piloter la roadmap technologique en cohérence avec les orientations SI de la banque - Participer à la promotion et l’implémentation des offres technologiques (modernisation, innovation) - Accompagner les équipes projets (chefs de projets, architectes applicatifs, squads) dans la mise en œuvre des solutions définies - Traiter les obsolescences techniques et garantir la pérennité des solutions - Contribuer aux phases de tests, benchmarks, validations techniques - Assurer un rôle de référent technique tout au long du cycle de vie de la solution Livrables attendus : - Dossiers et schémas d’architecture technique - Documents de vulgarisation technique pour les parties prenantes non techniques - Rapports d’analyse technique et d’évaluation des choix d’architecture - Suivi des mises en œuvre techniques en coordination avec les fournisseurs et intégrateurs - Plans de migration ou de remplacement pour les composants obsolètes Compétences requises : - Architecture - Data & Big Data - Environnement technique

Offre d'emploi
Data Architect GCP - Paris
Tu corresponds au/à la Data Engineer GCP que nous recherchons si : - Tu as une expérience significative de 5 minimum ans ou plus de projets Data : architecture, traitement ou analyse de données. - Tu as une expérience sur GCP ( + de 5 ans) et les services Data associés. (Big Query, Dataform, Looker Studio, Pub Sub) - Tu maîtrises au minimum un langage de programmation appliqué à l’analyse de données (Scala, Python, Java…). - Tu possèdes de solides compétences en SQL - Tu as de bonnes compétences dans l’architecture des systèmes, bases de données, méthodologies d’analyse. Tu sais ainsi préconiser les bons outils/technologies selon les contextes de tes clients. - Tu es sensible à la Business Intelligence , au Big Data et au Machine Learning - Tu es autonome et sais travailler en équipe notamment dans des contextes Scrum/Agile - Une compétence sur les outils d’ingestion de données low-code type Talend / Snaplogic est un plus - Enfin, tu sais être force de proposition et as un esprit de synthèse.

Mission freelance
Mission Winshuttle en Full remote
Bonjour, Nous sommes à la recherche d'un profil Winshuttle pour une mission de rétro-engineering et documentation sur un projet dans le secteur aéronautique. Votre mission : Analyser et comprendre la logique d’environ 20 scripts Winshuttle Réaliser la documentation complète des scripts existants Aider à mieux structurer et formaliser les usages de l’outil Travailler en autonomie , avec une méthodologie rigoureuse P.S : Aucune modification de script n’est prévue. La mission peut se faire en Full remote Démarrage flexible

Mission freelance
Expert Snowflake / DBT – Data Platform Architect
Contexte de la mission : Dans le cadre de la structuration de sa Data Factory , notre client du secteur Luxe recherche un consultant haut niveau capable d’intervenir sur l’architecture, le déploiement et l’industrialisation de plateformes de données basées sur Snowflake et DBT . Le consultant devra également accompagner et former les équipes techniques, tout en assurant le pilotage de la gouvernance, du FinOps et des bonnes pratiques DataOps. Missions principales : Conception et déploiement de plateformes de données (Snowflake, BigQuery, Databricks) Supervision et gouvernance des plateformes Snowflake et DBT Accompagnement des équipes de développement (coaching, support technique) Mise en place de bonnes pratiques de développement, sécurité et DataOps FinOps : suivi et optimisation des coûts par projet fonctionnel Automatisation de l'infrastructure et des processus (Git / GitLab CI/CD) Développement de pipelines et méthodes d’ingestion (via ETL ou scripting Python) Modélisation de l'entrepôt de données (modèles Kimball , Data Vault , etc.) Déploiement de frameworks de type QA / ELT / CI/CD Rédaction de documentation technique et fonctionnelle Formation des équipes internes sur les outils, les frameworks et les bonnes pratiques

Mission freelance
Data Analyst / Lead Dataiku
Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Offre d'emploi
Consultant Data Quality
Description de l'offre : Nous sommes à la recherche d'un consultant en qualité de données, avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. · Prestations à réaliser : La mission se focalisera principalement sur quatre rubriques et les documents associés : · Gouvernance : Politique QDD / Reportings QDD · Répertoire des données : · Traçabilité : Cartographie des flux / Note de collecte / PV QDD · Dispositifs de contrôles : Référentiel de contrôles / Fiches méthodologiques / Fichier de formalisation / Plan de contrôles de 2nd niveau / Cartographie des risques Accessoirement, il pourrait être demandé au consultant d’intervenir sur des sujets annexes en relation directe avec la Qualité des données.
Mission freelance
Consultant Tableau Freelance en Requêtage et Data Viz
Hoxton Partners recherche un consultant Tableau freelance spécialisé en requêtage et Data Viz pour une mission passionnante. Le candidat idéal devra maîtriser l'outil Tableau et être capable de modéliser des datasets complexes. Une expérience avancée avec les fonctions cartographiques de Tableau, y compris l'intégration de cartes Mapbox, est essentielle. De plus, une expertise dans les fonctions analytiques et de data science, telles que l'intégration de programmes Python pour l'analyse de données, est fortement appréciée. Responsabilités : Créer des visualisations de données interactives et informatives à l'aide de Tableau. Développer des requêtes efficaces pour extraire, transformer et charger des données. Intégrer des visualisations cartographiques avancées à partir de sources diverses. Collaborer avec l'équipe pour comprendre les besoins analytiques et concevoir des solutions adaptées. Compétences requises : Excellente maîtrise de Tableau et de ses fonctionnalités avancées. Solides compétences en requêtage SQL et capacité à manipuler des datasets complexes. Connaissance pratique des fonctions cartographiques de Tableau, en particulier avec Mapbox. Expérience avec des outils de data science, notamment Python, pour l'analyse de données. Conditions : Type de contrat : Freelance Durée : 3 ans Lieu : Paris 13ème Télétravail : 3 jrs sur site et 2 jrs en TT

Mission freelance
Un Data Engineer sur Paris + TT
Smarteo recherche pour l'un de ses clients, Un Data Engineer sur Paris + TT Projet : Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Assurer l’assistance technique auprès de nos client Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Principaux livrables : Participer au cadrage technique Refonte et re-design de l'application existante Initialisation et préparation de l'environnement de DEV et de la chaine DEVOPS Développement Front avec UX/Design, gestion des exceptions. Développement des pipelines de données (Extraction via API externe et d'autres sources, Intégration dans une Base de données SQL et construction des données nécessaires pour exposition dans le portail) Intégration et déploiement continue via une chaine CI/CD sur l'ensemble des environnements Documentation technique et utilisateurs. Recette technique et tests de bout en bout. Traitement des incidents & assistance utilisateurs Respect des normes et règles de développement Python. Travailler étroitement avec les équipiers pour s’assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Compétences requises : Maitrise de Python et de Framework Streamlit Expertise en déploiement et configuration de Streamlit en environnement python Maîtrise de HAProxy et des concepts de reverse proxy et connexion SSL/TLS Maitrise Bash et chaine DEVOPS (GitLab, Jenkins, Ansible, Nexus, Sonar, …) Maitrise des base de données relationnelle SQL Experience sur la consommation et l'exposition API REST Kubernetes, pratiques MLOPS Une bonne autonomie et capacité de prendre le lead sur la définition des solutions applicatifs et le développement des évolutions bonne communication et accompagnement utilisateurs Sens du travail en équipe Best to have : - Connaissance LLM et IA GEN Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres