Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Offre d'emploi
Chef de projet Data
Contexte : Dans le cadre d’un projet de transformation, notre client souhaite migrer les flux ETL Talend liés à un MDM legacy vers une nouvelle plateforme MDM. Le chef de projet assurera la coordination des équipes et le pilotage des différentes étapes de migration. Missions : • Piloter le projet de migration ETL (planification, coordination, suivi, reporting) • Analyser et documenter les flux existants • Superviser la refonte et la réécriture des jobs Talend vers le nouveau MDM • Organiser et suivre les phases de tests fonctionnels et techniques en coordination avec les différentes équipes • Préparer la mise en production et accompagner la transition vers le RUN • Assurer la communication entre les équipes data, techniques et métiers
Mission freelance
Data analyst
Missions Clés • Concevoir et maintenir des tableaux de bords dans le respect des règles de bonnes pratiques / de Storytelling • Analyser et modéliser des données complexes afin d’identifier des tendances, opportunités ou risques, et proposer des solutions concrètes. • Développement et automatisation des rapports (tableaux de bord, analyses ad-hoc) pour faciliter la prise de décision. • Réaliser des études en croisant données internes et sources externes (INSEE, open data, etc.) pour éclairer des enjeux métiers. • Collaborer avec les équipes techniques pour structurer et enrichir les jeux de données. Compétences Techniques • SQL avancé (requêtes, jointures, optimisation). • Analyse statistique (Python/Pandas, R). • Visualisation (Power BI, Tableau). • Connaissance des bases de données (e.g. Snowflake, SQL Server ou Oracle) • Collecte et traitement de données externes (API, open data). Savoir- être • Esprit analytique et capacité à synthétiser des informations variées. • Rigueur dans la manipulation de données hétérogènes. • Communication et remontée d'informations • Dynamisme et Sens du service
Offre d'emploi
Chef.fe de projet Data
Vous interviendrez pour cartographier et structurer les données issues de plusieurs pôles afin d’en offrir une vision claire, cohérente et partagée. Vous serez en charge de fiabiliser les indicateurs, faciliter l’exploitation des données et préparer les futurs projets liés à la donnée. Votre rôle Analyse & Diagnostic Réaliser un état des lieux de la donnée actuelle Identifier les sources de données, les flux, les doublons et les dépendances dans les outils actuels Mettre en évidence les écarts de cohérence, de qualité ou les dysfonctionnements impactant les indicateurs et les reportings Cartographie & Structuration Concevoir une cartographie de la donnée, incluant les flux, le stockage et la restitution ainsi que les usages métiers Identifier et documenter les données de référence servant de référentiels fiables Proposer une méthodologie pragmatique et itérative de construction et de mise à jour de la cartographie Définir un premier domaine pilote pour tester la démarche et démontrer des résultats rapides Préparer l’intégration future d’outils analytiques et d’IA (NLP, RAG) Pilotage & Accompagnement Assurer la mise en cohérence progressive des données entre les différents pôles Contribuer à la fiabilisation des indicateurs et à la simplification de leur exploitation Sensibiliser et accompagner les équipes dans l’appropriation des référentiels et des bonnes pratiques
Offre d'emploi
Expert Data Factory
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Offre d'emploi
Data Designer / Data Engineer
Mission Freelance – Data Designer / Data Engineer Client: secteur minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum Démarrage : ASAP Contexte de la mission Dans le cadre d’un vaste programme de modernisation de la donnée pour un acteur international du secteur des minéraux, vous intégrerez une équipe d’une dizaine de collaborateurs mobilisés sur le déploiement d’une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination. Tech Enablers : mise en place des briques techniques de la plateforme. Data Use Cases : livraison de cas d’usage métiers concrets. Les objectifs à court terme : Livrer 2 à 3 cas d’usage métiers prioritaires . Implémenter une plateforme data moderne basée sur Microsoft Fabric et intégrée à l’écosystème Azure . Structurer une organisation agile , avec des rôles définis, des cérémonies PI Planning et une gouvernance claire. Rôle : Data Designer Vous interviendrez sur la conception et la modélisation des données afin de garantir la cohérence et la pérennité des cas d’usage développés. Vos missions principales : Concevoir les modèles de données (conceptuel, logique et physique) pour les cas d’usage identifiés. Traduire les besoins métiers en structures techniques robustes et évolutives. Collaborer étroitement avec les Data Product Owners et Data Engineers . Documenter les modèles et contribuer à la mise en place du Data Catalogue et du MDM . Participer activement aux rituels agiles et à l’amélioration continue de la Data Factory. Compétences requises : Solides connaissances en modélisation de données (conceptuelle, logique, physique). Bonne compréhension des standards Data Product et des architectures modernes. Expérience confirmée en environnement agile (Scrum / SAFe). Maîtrise des outils et technologies Microsoft Fabric et Azure Data Services . Bonne culture autour du Data Catalogue , MDM et de la gouvernance de la donnée . Anglais professionnel obligatoire (environnement international). 🎓 Profil recherché : Data Designer / Data Engineer confirmé à senior , 3 à 7 ans d’expérience. Capacité à évoluer dans un environnement structuré, international et collaboratif. Esprit analytique, sens du service et autonomie.
Mission freelance
Data Engineer confirmé
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Offre d'emploi
Data Engineer Python
Contexte & Objectif de la mission Nous recherchons pour notre client du secteur bancaire un Data Engineer confirmé sur Python. Vous interviendrez en binôme avec le développeur en place sur la conception, le développement et la mise en qualité des flux de migration, tout en garantissant la robustesse et la fiabilité du code déployé. Rôles & Responsabilités Participer aux analyses techniques et au cadrage des besoins de migration/reconsolidation issus des différentes squads. Concevoir et implémenter des solutions data conformes aux bonnes pratiques d’architecture et de développement. Réaliser les développements Python / SQL et les tests associés (unitaires, non-régression). Mettre en œuvre les traitements d’ingestion et de streaming de données (Kafka, SFTP, Dataflow, DBT). Assurer le support technique aux équipes d’homologation et de production. Maintenir les applications du périmètre en condition opérationnelle. Rédiger la documentation technique et assurer un reporting régulier de l’activité. Collaborer activement avec les équipes QA, DevOps et DataOps dans un environnement CI/CD (GitLab, Kubernetes). Environnement technique Python – SQL – Kafka – GCP (BigQuery, Dataflow, Cloud Storage) – DBT – Looker – GitLab – Docker – Kubernetes – Terraform – Helm – Kustomize – Shell – CSV/JSON/XML
Offre d'emploi
Business Analyst - Paiement /Monétique (H/F)
Contexte Dans le cadre de la construction d’une plateforme technologique de nouvelle génération dédiée au processing des paiements , notre partenaire développe une solution intégrant les meilleures normes du marché (Visa, Mastercard, CB, Wero, etc.), des services instantanés, multi-schemes et des fonctionnalités adaptées à plusieurs pays. Ce projet s’inscrit dans un contexte de digitalisation accélérée des usages : paiements mobiles, e-commerce, instantanéité des transactions et nouveaux moyens de paiement digitaux. Votre rôle En tant que Business Analyst , vous interviendrez au cœur de la transformation du système de processing, de la définition du besoin jusqu’à la mise en production. Vos principales missions seront : Analyser et formaliser les besoins fonctionnels et techniques. Rédiger les livrables MOA (EDB, cahiers des charges, dossiers de configuration et de paramétrage). Définir et mettre en œuvre la stratégie de test : plan de recette, rédaction et exécution des cahiers de recette, validation des évolutions (PV). Coordonner les installations applicatives en environnement de recette et de production. Assurer le suivi de la mise en production et la VSR. Accompagner les clients lors du déploiement des services et prestations.
Mission freelance
Data Engineer
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Offre d'emploi
Data Analyst Dataiku (Finance)
Je recherche un Data Analyst Dataiku Finance capable d’exploiter toutes les fonctionnalités de dataiku et de proposer des features innovantes) Expertise Finance : notions comptables ou expériences sur des projets Finance. Connaissance arrêtes comptables (Rythmes … ), familier avec le jargon / notion Compta / Finance Vous serez au cœur de la démarche de pilotage par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité de plusieurs métiers. Les outils utilisés afin de répondre aux besoins de nos clients sont OBIEE Analytics, TABLEAU, SQL, SAS et Dataiku. Exemple d’études qui peuvent être demandées : Mettre en place une solution d’automatisation de la production d’un reporting Automatiser la production du lineage d’un applicatif Organiser des comités de pilotage Construire un dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données Rédiger des spécifications Reporting et extractions Extractions de données, y compris pour la construction des budgets Construire des indicateurs Créer et maintenir des dashboards TABLEAU Suivre les KPI
Mission freelance
Data Analyst / BI Analyst
Contexte de la mission: Dans le cadre d’un projet stratégique de transformation data au sein d’un acteur majeur du secteur bancaire, nous recherchons un Data Analyst / BI Analyst capable d’intervenir sur la modélisation, la visualisation et l’analyse des données métier. L’objectif de la mission est d’optimiser la qualité, la fiabilité et la mise à disposition des données analytiques pour les directions métiers (finance, risque, marketing). Responsabilités principales: · Collecter, nettoyer et modéliser les données issues de différentes sources (internes et externes). · Concevoir et maintenir les tableaux de bord décisionnels sur Tableau et Dataiku . · Développer et maintenir les modèles BI afin de répondre aux besoins métiers (finance, risque, opérations). · Identifier les Data Issues et assurer le suivi de leur résolution. · Accompagner les utilisateurs métier dans l’interprétation et l’exploitation des dashboards. Stack technique: · BI & Data Visualisation : Tableau, Power BI (apprécié) · Data Science / Workflow : Dataiku, SQL, Python (optionnel) · Modélisation & Gouvernance : Data Warehouse, DataCube, Data Modeling (dimensionnel, relationnel) · Base de données : Oracle, Snowflake ou équivalent · Environnement Cloud : AWS (S3, Redshift, Glue, Lambda, etc.) Profil recherché: · Minimum 3 ans d’expérience en tant que Data Analyst ou BI Analyst. · Bonne maîtrise des outils de visualisation et de modélisation ( Tableau, Dataiku, SQL ). · Connaissance du secteur Banque / Finance fortement appréciée. · Expérience dans un environnement AWS est un vrai plus. · Capacité à comprendre les enjeux métiers et à vulgariser les insights auprès des décideurs. · Bon niveau de communication et autonomie dans la gestion de projet data. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Mission freelance
Data Scientist - GenAI
CONTEXTE : Experinence : 5 ans et plus Métiers Fonctions : Data Management,Data Scientist, Spécialités technologiques : Big Data,genAI Compétences Technologies et Outils Docker genai Gitlab Fast API Python Git flow genai Méthodes / Normes Agile Langues Anglais MISSIONS Nous sommes actuellement à la recherche d'un Data Scientist. Notre client met en œuvre sa stratégie IA en soutenant différentes initiatives clés. Vous interviendrez sur l'un de ses projets phares. pour soutenir l'analyse des formulations, notamment l'analyse des tendances : Vos missions seront les suivantes : • Mettre en œuvre la révision et la numérisation du portefeuille de traités, en veillant à ce que tous les documents liés aux contrats (traités et polices) soient correctement convertis et gérés. • Mettre en œuvre des jumeaux numériques conformément au modèle de données établi, en garantissant une intégration et une cohérence parfaites des données. • Mettre en place et appliquer des contrôles rigoureux d'assurance qualité et de validation pour la saisie des données afin de maintenir des normes élevées d'intégrité des données. • Élaborer une documentation complète afin de rationaliser et de soutenir l'intégration des données dans les modèles de données analytiques du client Vous interviendrez sur un large scope de contrat. Vous livrerez du code et de la documentation conformément à la définition du travail terminé.
Mission freelance
Data Scientist - GenAI
Métiers et Fonctions : Data Management Data Scientist Spécialités technologiques : Big Data genAI Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : Dockergenai, Gitlab, FastAPI, Python, Gitflow, genai Méthodes / Normes : Agile Langues : Anglais Secteurs d'activités : Banque Description de la prestation : Dans le cadre d'une mission pour un client du secteur des assurances, recherche d'un Data Scientist pour soutenir une stratégie IA et participer à un projet clé visant à analyser les formulations et tendances. Objectifs principaux : Réviser et numériser le portefeuille de traités (contrats, polices), en assurant une gestion correcte des documents liés. Mettre en œuvre des jumeaux numériques selon le modèle de données défini, en garantissant cohérence et intégration parfaite des données. Mettre en place des contrôles qualité stricts pour l'assurance de la fiabilité des données saisies. Élaborer une documentation complète pour faciliter l'intégration des données dans les modèles analytiques. Livrables : Code et documentation conformes à la définition du travail terminé, couvrant un large scope de contrat.
Mission freelance
Consultant Data
Pour le compte d’un grand groupe français, nous recherchons un consultant spécialisé en data afin d’accompagner le Data Office dans la mise en conformité d’un Data Lake. La mission consiste à assurer la bonne gouvernance des données et leur alignement avec les exigences réglementaires et internes, en collaboration avec les équipes techniques et métiers. Le/la consultant(e) interviendra sur l’analyse des pratiques existantes, la définition et le suivi des plans d’action, ainsi que la mise en place de procédures garantissant la qualité, la sécurité et la conformité des données. Une bonne compréhension des environnements Big Data et des problématiques de data governance est indispensable pour réussir cette mission stratégique.
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Offre d'emploi
Développeur Java & DevOps (H/F)
Contexte : Dans le cadre d’un projet stratégique porté par une grande institution publique européenne, nous recherchons un développeur confirmé pour intervenir sur le développement et les tests unitaires d’un composant critique d’une plateforme de règlement de transactions . Ce projet s’inscrit dans une initiative innovante liée à la mise en œuvre d’une monnaie numérique de banque centrale . Objectif de la mission : L’intervenant participera à la conception, au développement et aux tests unitaires d’un composant de règlement intégré dans une plateforme de services destinée aux prestataires de paiement. Activités principales : Conception et développement du composant de règlement de la plateforme Implémentation des tests unitaires des modules développés Respect des normes de qualité, d’analyse de code (Sonar), et des exigences non fonctionnelles (performance, montée en charge, résilience…) Prototypage et participation aux revues de code Rédaction de la documentation technique (en anglais) Collaboration avec une équipe internationale dans un cadre agile (SAFe)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres