Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Mission freelance
Proxy Product Owner Data
Nous recherchons un Proxy Product Owner pour accompagner une équipe Data dans un contexte de forte croissance digitale. Vous interviendrez au sein d’une équipe pluridisciplinaire (PM, PO, Analytics Engineer, Data Engineer, QA...) en charge de l’ensemble du cycle de vie de la donnée, de sa création à son activation pour différents usages métiers. Votre rôle consistera à : Recueillir et formaliser les besoins fonctionnels (techniques et métiers) en support du PO. Assurer le suivi des projets et garantir la visibilité des avancées auprès des parties prenantes. Participer au déploiement technique des produits data sur des assets web, applications mobiles, IPTV et TV connectée. Contribuer à la mise en place et au paramétrage des outils tiers (Tag Commander, Piano Analytics, DMP, CMP...).
Mission freelance
Product Owner Data
Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.

Mission freelance
Ingénieur Data GCP
Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Data GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4875 en objet du message Vos responsabilités Collecte et l’ingestion de différentes sources de données non homogènes Mise en place de pipelines de traitement de données Développement des modèles de données Extraction et l’exposition des données du Lakehouse vers d’autres services Industrialisation des projets sur la GCP Mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données Participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données Participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe Expériences dans un environnement du Cloud Provider Public Google (GCP) Expériences sur des projets intégrant Gitlab CI/CD Maitrise des langages SQL et Python Expériences sur des projets Big Data intégrant PySpark, BigQuery, et Airflow Expériences dans la mise en place de pipeline ETL / ELT
Mission freelance
BUSINESS ANALYST DATA MART MUREX
• Participer à l'évolution et à la gestion du cycle de vie du produit (rituels méthodes Agile) • Comprendre et spécifier les besoins et processus métiers pour contribuer à la vision produit jusqu'à la génération des CRE vers le SI comptabilité centrale • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Fournir un support analytique, opérationnel et stratégique • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Participer à l'homologation et à la validation des patchs de l'éditeur • Aligner les données Datamart avec les besoins métiers Front Office to Back Office to Comptabilité en collaboration avec les métiers et les équipes SI fonctionnelles • Extraire et améliorer les données de la base financière MX.3 vers le Datamart • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Réaliser les spécifications liées à l'ETL et les recetter • Assurer l'intégrité et la qualité des données • Fournir un support analytique et opérationnel • Gérer le backlog et piloter les travaux de l'équipe en appui au lead technique du client • Contribuer à l'activité de release et de post production • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Assurer la coordination des différentes recettes avec les applications abonnées Pour chacune de ces activités, le prestataire produira les livrables attendus, validés dans le cadre du processus de gestion de la plateforme SIGMA. Le prestataire sera plus particulièrement en charge d'assister l'équipe sur les aspects suivants : • Construire et gérer le backlog Datamart • Animer la relation avec les applications abonnées à SIGMA • Contribuer aux projets ayant des adhérences avec le Datamart (tels que le projet de refonte du SI clients externes) Les travaux du prestataire seront réalisés en coopération avec les équipes de la filière SI et métiers, ainsi que l'éditeurMurex. Une bonne coordination constituera un élément essentiel de réussite du projet dans un contexte multi-intervenants.

Offre d'emploi
PRODUCT OWNER DATA
Contexte du poste Dans le cadre du développement de la plateforme data et de la valorisation des usages BI, nous recherchons un Product Owner confirmé (7-8 ans d’expérience) ayant une expertise approfondie sur Power BI et une bonne compréhension des environnements Data (Databricks, pipelines, gouvernance de la donnée). Le PO sera en charge de piloter et coordonner les activités d’une petite équipe composée d’un développeur Power BI et d’un développeur Databricks, tout en assurant la relation avec les métiers et la priorisation du backlog. Missions principales Pilotage & Coordination Définir et maintenir la roadmap produit en lien avec les besoins métiers. Animer les cérémonies Agile (daily, sprint planning, revue, rétrospective). Prioriser le backlog et arbitrer les demandes métiers. Assurer le suivi d’avancement, la qualité des livrables et le respect des délais. Accompagnement & Leadership Encadrer deux développeurs (Power BI & Databricks) : apporter du support technique, aider à lever les blocages. Garantir la cohérence entre les développements Databricks (traitement de la donnée) et Power BI (restitution). Sensibiliser les parties prenantes à la bonne utilisation de la donnée et des outils. Expertise Power BI Contribuer à la conception et à l’optimisation de tableaux de bord. Apporter une expertise sur la modélisation des données, la DAX et la performance des rapports. Définir les bonnes pratiques et standards d’usage de Power BI. Relation Métiers & Gouvernance Recueillir et challenger les besoins des utilisateurs. Traduire les besoins métiers en user stories claires et actionnables. Garantir la qualité, la fiabilité et la pertinence des indicateurs restitués. Profil recherché Expérience : 7-8 ans minimum dans des projets Data/BI dont une solide expérience sur Power BI. Compétences techniques : Excellente maîtrise de Power BI (DAX, Power Query, modélisation, optimisation). Bonne compréhension d’un environnement Databricks (Spark, Delta Lake, pipelines de données). Connaissance des environnements Cloud (Azure de préférence). Compétences fonctionnelles : Gestion de backlog, priorisation et animation de cérémonies Agile. Capacité à recueillir, formaliser et challenger les besoins métiers. Sensibilité aux enjeux de data quality et gouvernance de la donnée. Soft skills : Leadership et capacité à fédérer une équipe. Excellentes qualités de communication et de pédagogie. Rigueur, autonomie et sens du résultat. Langues : Français courant, anglais professionnel souhaité

Offre d'emploi
PO DATA
📝 VOS MISSIONS PRINCIPALES Au sein d’une Direction E-commerce d’un grand compte Retail B2C , en tant que Product Owner / Lead Data , vous êtes l’interlocuteur privilégié des équipes métiers Digital pour co-construire et mettre en œuvre la roadmap Data sur le E-commerce . Vos activités principales : Co-construire avec les équipes métiers la roadmap data inhérente à la roadmap business en priorisant les demandes selon la valeur métier et l’expérience utilisateur Animer des points de priorisation et de synchronisation avec ces métiers Coordonner les actions avec 2 autres Product Owner Data Participer au cadrage des projets majeurs Recueillir les besoins Créer, alimenter et suivre le backlog produit Animer des sessions de validation avec les parties prenantes Etre un « Business Partner » pour les personnes au niveau Groupe Coordonner les équipes data (ingénieurs, analystes, scientists, tracking) afin de mettre sous contrôle la mise en œuvre Suivre et coordonner plusieurs projets en parallèle Contribuer aux phases de recette fonctionnelle Valider la conformité des livrables
Mission freelance
Directeur de Programme Data – Migration Databricks
Le client lance un programme de transformation de sa plateforme data, visant à : Migrer l’environnement legacy vers Databricks Implémenter Unity Catalog pour la gouvernance centralisée Déployer Azure Purview pour la traçabilité, le lineage, et la conformité RGPD Harmoniser les pratiques de gouvernance au sein de plusieurs entités européennes L’environnement est fortement réglementé, avec des interactions régulières avec la direction conformité, sécurité, IT, métiers et DPO. Le directeur de programme sera responsable de : La coordination stratégique de plusieurs chantiers techniques et fonctionnels L’animation des comités de gouvernance La priorisation, l’arbitrage et la gestion des risques Le reporting au COMEX groupe
Offre d'emploi
Data Engineer SQL
La mission concerne : Le Data Engineer travaillera en proximité avec les Business Analyst Expertises spécifiques : Nous cherchons un consultant Data Engineer T-SQL (Sqlserver 2019) disposant des compétences suivantes : Séniorité : Entre 6 et 9 ans Description : • Participe aux phases d’analyse, de conception, de développement et de tests dans le cadre de la réalisation ou du pilotage de projets informatiques • Analyse et formalise les besoins des utilisateurs • Développe les programmes, les interfaces, les restitutions... • Respecte les normes et les standards • Suit les travaux (développements, tests) • Teste le fonctionnement de la fonction, du module ou du programme • Vérifie l’intégration du développement • Rédige les spécifications techniques

Offre d'emploi
Data Engineer Senior Java/Spark – POC & Industrialisation Data
Nous recherchons un Data Engineer Senior (Java/Spark) pour accompagner un acteur majeur du secteur mutualiste dans la transformation et l’industrialisation de ses environnements data, en lien étroit avec les équipes métiers et techniques. Vous aurez pour mission : Accompagnement technique et fonctionnel : Intervenir en tant qu’expert Data pour soutenir les équipes sur des problématiques de performance, d’optimisation et d’expérimentation de cas d’usage à forte volumétrie. POC et industrialisation : Participer à la conception et à la réalisation d’un POC visant à rapprocher les environnements cloud et on-premise, avec une cible finale on-premise. L’existant cloud servira de base pour des projets d’envergure. Animation et méthodologie : Co-animer le codir mensuel avec la direction métier Data/IA, accompagner la direction dans l’exploration des données et la priorisation du backlog, et apporter une expertise méthodo pour le démarrage des cas d’usage. Collaboration transverse : Travailler en étroite collaboration avec les Tech Leads et référents architecture Data pour garantir la cohérence technique et fonctionnelle des solutions proposées. Développement et optimisation : Apporter un soutien actif au développement Python/Java, résoudre les problématiques de performance et contribuer à l’expérimentation de cas d’usage sur des volumes de données importants.

Offre d'emploi
DATA ENGINEER GCP
· Compétences solides en data : structures de données, code, architecture · Connaissance de GCP · Expériences professionnelles avec les langages SQL et Python · Références professionnelles sur Pyspark, BigQuery et Airflow · Expertises dans la mise en place de pipeline ETL / ELT · Bonnes connaissances de Gitlab et Gitlab CI/ CD · La collecte et l’ingestion de différentes sources de données non homogènes · La mise en place de pipelines de traitement de données · Le développement des modèles de données · L’extraction et l’exposition des données du Lakehouse vers d’autres services · L’industrialisation des projets sur la GCP · La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données · La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’int égrit é des données · La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Offre d'emploi
CHEF DE PROJET DATA
Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. Contexte : Assurer le rôle de point de coordination entre les équipes data engineer et data analystes Comprendre et cartographier les flux de données existants Réaliser ponctuellement des développements SQL si nécessaire Assurer le pilotage, suivi et traçabilité des projets data Garantir la bonne application de la méthodologie Agile (Rituels, backlog, priorisation). Compétences attendues Solides capacités d'analyse et de compréhension fonctionnelle Bonne connaissance des environnements data (bases, flux, reporting) Expérience en gestion de projet / PO Compétences techniques en SQL, DBT et Snowflake Connaissance de l'outil Tableau Profil hybride Technico fonctionnel

Mission freelance
Chef de projet data
Pour le besoin de notre client, nous recherchons un Chef de projet qui évoluera sur un périmètre transverse à toute la chaîne de valeur de la Data. Recueillir le besoin auprès des métiers et les challenger en coordination avec le Leader Equipe client Faire des études de faisabilité (connaissance technique BI ou Big Data nécessaire) ... ... ... ... ... ... ... .... ... ... ... .... .... .... ... .... ... ... .... ... ... ... .... ... ... .... ... ... ... .... ... ... .... ... ... ... .... ... .... ...

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Chef de Projet Technique Cloud & Data
Le client déploie un programme stratégique Global Data Platform afin de centraliser, sécuriser et automatiser la gestion de ses données. Le consultant interviendra au sein de la Software Squad pour concevoir, développer et maintenir les solutions logicielles supportant la plateforme. Participer à la conception et au développement des composants logiciels de la Data Platform. Développer et maintenir des applications web et API permettant la gestion des services et des données. Contribuer à la mise en œuvre des bonnes pratiques CI/CD et Cloud Azure . Collaborer avec les équipes Data, Réseau, Sécurité et Produit dans un environnement Agile international . Garantir la qualité, la performance et la sécurité des solutions livrées.

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres