Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 208 résultats.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp

Publiée le
Azure
Cloud
Databricks

1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Freelance

Mission freelance
Coordinateur Anomalies & Tests RUN SI

Publiée le
Data analysis
Dynatrace
JIRA

24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Freelance

Mission freelance
Data Engineer - Gen AI - Finance (h/f)

Publiée le

12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data Analyst CRM – Adobe Campaign (Lille)

Publiée le
Microsoft Power BI

1 mois
Lille, Hauts-de-France
Télétravail partiel
Bonjour à tous, Nous recherchons un Data Analyst CRM pour rejoindre une équipe basée à Lille . L’objectif de cette mission est de concevoir et livrer un maximum de dashboards Power BI , en binôme avec un collaborateur dédié à la partie CRM, afin de fournir des analyses pertinentes et exploitables pour le pilotage des activités marketing. 🔹 Expérience indispensable en CRM 🔹 Connaissance d’ Adobe Campaign fortement appréciée 🔹 Maîtrise de Power BI 🔹 Capacité à travailler en binôme et à comprendre les enjeux marketing/CRM
Freelance

Mission freelance
Architecte SI applicatif et intégration, Data Flow, API, MFT - Paris - Vorstone

Publiée le
API
API Platform
Enterprise Application Integration (EAI)

2 ans
600-800 €
Paris, France
Télétravail partiel
Architecte SI applicatif et intégration, Data Flow, API, MFT - Architecture SI et gouvernance applicative SI Vorstone recherche un Consultant Senior en Architecture et Intégration IT pour un de ses clients, un groupe international basé à Paris. L' Architecte d’entreprise applicatif et intégration , Data Flow, API, MFT senior sera responsable de toute l’architecture IT y compris data exchange/ API platform management, au sein du paysage IT du groupe. Ce rôle veille à l’alignement des systèmes informatiques avec les objectifs métier, soutient le développement et l’intégration de nouvelles technologies, et maintient l’efficacité opérationnelle des services IT. L’Architecte SI applicatif et intégration, Data Flow, API, MFT sera rattaché au CIO (Directeur des Systèmes d’Information) et joue un rôle clé dans la définition de la stratégie et roadmap IT du groupe. L'objectif est de faire évoluer, rationnaliser et homogénéiser tout le paysage applicatif pour tous les pays suite à de nombreux rachats/Carve-in. 🧩 Responsabilités principales Architecture IT Développer et maintenir l’architecture d’entreprise IT, en veillant à ce qu’elle réponde aux besoins actuels et futurs du business. Définir et mettre en œuvre les standards, guidelines, and best practices architecturales. Collaborer avec les métiers et différentes parties prenantes métier pour identifier et prioriser les améliorations architecturales. Piloter la conception (design) et l’intégration de nouveaux systèmes et technologies, en garantissant une interopérabilité fluide. Superviser l’évaluation et la sélection de solutions technologiques alignées avec les objectifs stratégiques de l’entreprise. Gestion de la plateforme d’API (Mulesoft) & & Opcon Managed File Transfer (MFT) Gérer la plateforme d’API Mulesoft et l’architecture OpCon MFT , en veillant à leur utilisation efficace pour l’intégration des différents systèmes et services IT. Collaborer avec les équipes de développement pour garantir que les APIs et les flux MFT sont conçus et mis en œuvre selon les meilleures pratiques. Identifier les opportunités d’optimisation et d’amélioration de la plateforme d’API et de la solution MFT. Reporting et analyse Préparer et présenter des rapports réguliers sur l’architecture IT, incluant la performance des plateformes API et MFT, à la direction. Analyser les indicateurs clés et les tendances pour identifier les axes d’amélioration et éclairer la prise de décision stratégique.
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance
CDI

Offre d'emploi
Chief of staff / PMO for Group Data & AI Office

Publiée le
Microsoft Access
ServiceNow

12 mois
40k-48k €
400-480 €
Valbonne, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte de la mission Le client mettre en place son portail employé et ses services RH dans ServiceNow ECPRO et HRSD. Cela permettra de remplacer plus de 10 applications existantes. Nous avons besoin du soutien d’un analyste métier, expert en ServiceNow HRSD et plateforme ECPRO, pour mener des études ponctuelles, proposer des solutions, en collaboration avec plusieurs parties prenantes. The client will implement its employee portal and its HR services in ServiceNow ECPRO and HRSD. This will allow to phase out more than 10 existing applications. We need the support of a business analyst, knowledgeable in ServiceNow HRSD, ECPRO platform to lead ad hoc studies, propose solutions, in interaction with multiple stakeholders.
Freelance
CDI
CDD

Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)

Publiée le
BI
Cognos
Microsoft Power BI

12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Freelance

Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)

Publiée le
Azure
Microsoft Fabric
PySpark

8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier

Publiée le
Backlog management
Cloudera
Data governance

12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance

Mission freelance
Business Analyst Data (Épargne Retraite / Actuariat / SQL / PBI) – RUN PDK

Publiée le
kelia
Microsoft Power BI
Microsoft SSIS

2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour intervenir sur un programme stratégique de modernisation du SI Épargne. Vous interviendrez au sein du chantier en charge du puits de données consolidant les flux du progiciel de gestion Kelia et alimentant les usages métiers (décisionnel, actuariat, comptabilité, pilotage épargne…). 🎯 Vos responsabilités Suivi de production & qualité de la donnée Mettre en place et suivre les indicateurs d’exhaustivité et de qualité du PDK Définir des contrôles automatiques sur la chaîne de données Construire le morning report et suivre les anomalies de production Prise en compte des besoins métier Analyser les expressions de besoin des équipes métiers Participer aux ateliers et reformuler les besoins Modéliser les objets métiers et définir les règles de transformation des données Kelia Spécifications & Recette Produire les spécifications fonctionnelles détaillées Concevoir les plans de tests et réaliser les recettes de bout en bout Qualifier, documenter et suivre les anomalies Produire les reportings, PV de recette et supports de réunion

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1208 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous