Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 428 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Freelance

Mission freelance
Data Scientist – GenAI & RAG - Paris

Net technologie
Publiée le
AWS Cloud
Data science
GenAI

3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Freelance

Mission freelance
DEVELOPPEUR SENIOR DYNAMICS 365

ARGANA CONSULTING CORP LLP
Publiée le
API
Azure Data Factory
C#

6 mois
500-550 €
Paris, France
🎯 Contexte de mission Dans le cadre de la digitalisation de ses processus métier et de l’évolution de sa plateforme CRM cloud, nous recherchons un Développeur Senior Dynamics 365 capable de concevoir, développer et maintenir des solutions robustes autour de Dynamics 365 et des services Azure. La mission s’inscrit dans un environnement international, exigeant et fortement orienté innovation, avec des enjeux autour de l’automatisation, de l’intégration des systèmes et de l’optimisation des parcours utilisateurs. 🛠️ Missions principales et rôle Développer et personnaliser les composants Dynamics 365 : formulaires, workflows, plugins, JavaScript/jQuery, traitements C# et SQL Concevoir et développer des Azure Functions (HTTP triggers, TimerTriggers, files d’attente, etc.) Intégrer des contrôles PCF et configurer les différents modules Dynamics 365, notamment Sales et Customer Service Automatiser les tâches utilisateurs, les notifications et certains traitements métiers Réaliser des analyses de bugs et assurer leur résolution Étudier la faisabilité des demandes métier et proposer des solutions techniques adaptées Concevoir des architectures fonctionnelles évolutives et documentées Mettre en place et maintenir les pipelines CI/CD ainsi que les processus de release Gérer les branches de code, les déploiements et les environnements Dev, UAT et Production Administrer les ressources Azure : Functions, Queues, Topics, Data Factory, Blob Storage Assurer les intégrations avec des systèmes tiers tels que des applications web, outils marketing, backoffice ou solutions de téléphonie Superviser la production et apporter un support aux utilisateurs Assurer la coordination avec les éditeurs et partenaires techniques pour la gestion des incidents Gérer les dépôts Git et garantir la qualité des livrables 🚀 Objectifs Faire évoluer et stabiliser la plateforme Dynamics 365 Optimiser les processus métiers grâce à l’automatisation et aux intégrations Garantir la fiabilité, la performance et la maintenabilité des développements Fluidifier les échanges entre Dynamics et les systèmes tiers Sécuriser les déploiements via des pratiques CI/CD robustes Accompagner les équipes métier dans leurs besoins d’évolution et d’amélioration continue 💡 Compétences requises Excellente maîtrise de Dynamics 365 CRM Expertise en développement C#, JavaScript et SQL Bonne connaissance des modules Sales et Customer Service Maîtrise des services Azure : Functions, Storage, Data Factory, Queues, Blob Storage Expérience confirmée sur les pipelines CI/CD et la gestion des environnements Solides compétences en architecture technique et documentation Maîtrise des outils de gestion de code source Git Expérience des intégrations avec des systèmes tiers et APIs Capacité à intervenir sur des problématiques de production et de support
Freelance

Mission freelance
SAP Data Migration Manager – End-to-End

Xcede Limited
Publiée le
Data management
Data Strategy
Migration

12 mois
Paris, France
Nous recherchons un Responsable de la Migration de Données SAP parlant français et anglais pour piloter les activités de migration de données de bout en bout dans le cadre d’un programme stratégique SAP ! Responsabilités Définir et piloter la stratégie de migration des données SAP Gérer l’ensemble du cycle de vie de la migration : extraction, nettoyage, mapping, conversion, chargement et validation des données Coordonner les équipes fonctionnelles, techniques et métiers Garantir la qualité, la cohérence et l’intégrité des données Superviser les outils et méthodologies de migration Suivre les risques, les délais et les livrables liés aux données Une expérience en PLM (Product Lifecycle Management) est un plus. Si cette opportunité vous intéresse, envoyez votre CV à ou cliquez sur « Postuler maintenant » !
Freelance

Mission freelance
Développeur d'appli. à forte connotation Data

Codezys
Publiée le
API
Azure
Azure DevOps Services

12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
Freelance
CDI

Offre d'emploi
Delivery Manager Data

VISIAN
Publiée le
Architecture
Big Data
Databricks

1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Freelance

Mission freelance
Data Engineer

Root-MENU
Publiée le
Python
SQL

6 mois
500-800 €
Paris, France
En tant que Data Engineer, vous interviendrez sur la conception, la mise en place et l’évolution des pipelines de données, avec un enjeu fort autour de la fiabilité et de la performance des traitements. Au sein de l’équipe data, vos missions seront les suivantes : ⋆ Concevoir et maintenir des pipelines de données (ETL/ELT) ⋆ Assurer la collecte, le nettoyage et la transformation des données ⋆ Optimiser les performances des flux et des bases de données ⋆ Garantir la qualité et la disponibilité des données ⋆ Collaborer avec les équipes data (analystes, data scientists) pour répondre aux besoins métiers ⋆ Participer aux choix techniques liés à l’architecture data
Freelance

Mission freelance
Data Engineer

Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop

12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
Freelance

Mission freelance
Data Integration specialist

Axande
Publiée le
GSAP
TIBCO

12 mois
520-650 €
Paris, France
RÔLE PRINCIPAL Le spécialiste en intégration de données interviendra spécifiquement sur un projet d’implémentation d’un système de gestion d’entrepôt (WMS – Manhattan en mode SaaS) au sein de l’écosystème client. Il rejoindra une équipe de 4 personnes et devra développer une expertise sur les interfaces existantes entre SAP ECC et les systèmes Manhattan, ainsi qu’entre SAP S/4 et Manhattan. Ces interfaces assurent des échanges bidirectionnels de données Supply (données de référence / commandes / livraisons, etc.) et utilisent différents formats (IDOC sur ECC – API OData / événements sur S/4 – fichiers JSON côté Manhattan). Le candidat devra donc être capable d’évoluer dans un environnement complexe, de comprendre la logique d’interfaces élaborées jusqu’au niveau du mapping de données, et d’assurer leur maintenance. Il pourra également être amené à configurer de manière autonome des flux de données au sein de l’ESB, ainsi qu’à former et accompagner les équipes de production. Le candidat devra aussi être en mesure de contribuer aux projets de migration dans le cadre du passage de SAP ECC vers SAP S/4, qui impacte directement le projet. Il devra faire preuve de rigueur et de précision dans la gestion documentaire, notamment pour le suivi des versions des développements mis en production (gestion de 3 environnements/zones). Le candidat sera responsable du suivi des activités avec les partenaires AMER et APAC (réunions hebdomadaires), de la remontée des points critiques, ainsi que de la mise en place et du suivi des plans d’action. Un intérêt pour la coordination et la gestion de projet est donc requis. Un esprit d’équipe et une volonté de partager les connaissances sont essentiels. Le candidat doit être capable de respecter des délais serrés, et un bon niveau d’anglais est indispensable, le projet étant mondial. Principaux enjeux du poste Recueillir et analyser les besoins métiers et clients afin de proposer des solutions techniques d’intégration Apporter de la valeur au métier en concevant le modèle d’intégration le plus adapté aux besoins Identifier et prioriser les opportunités d’amélioration des processus et de l’efficacité opérationnelle
Freelance

Mission freelance
Project Manager (GRC IA CLOUD DATA)

Groupe Aptenia
Publiée le
Cloud
Data management
Gouvernance, gestion des risques et conformité (GRC)

6 mois
400-600 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Piloter les analyses de risques IT & cybersécurité sur des projets innovants (IA, Cloud, Data) - Accompagner les projets en apportant expertise sécurité et conseil (data protection, conformité, architecture) - Identifier, qualifier et suivre les risques, vulnérabilités et plans de remédiation - Assurer la conformité des projets IT (y compris third parties) et la résilience opérationnelle - Préparer et animer les comités de validation (risk, sécurité) 🛠️ Gouvernance & GRC - Intégrer les analyses dans l’outil GRC Groupe - Contribuer au programme cybersécurité (référentiel NIST CSF) - Produire le reporting (KPI, tableaux de bord, comités) - Maintenir et améliorer les politiques et procédures 🤝 Environnement - Collaboration avec équipes IT, métiers, sécurité, data, juridique et compliance - Contexte international et multi-sites
Freelance

Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456

ISUPPLIER
Publiée le

5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Freelance
CDI

Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics

Ela Technology
Publiée le
Machine Learning
Python
SQL

6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Freelance
CDI

Offre d'emploi
Développeur Typescript

VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)

1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Freelance

Mission freelance
Senior Python Engineers orientés Data & Distributed Systems

Comet
Publiée le
AWS Cloud
Numpy
Pandas

6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Freelance

Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris

Almatek
Publiée le
Git

6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Freelance
CDI

Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)

Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks

6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

428 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous