Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 470 résultats.
Freelance
CDI
CDD

Offre d'emploi
DevOps & SRE Engineer (H/F)

RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud

1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Freelance
CDI
CDD

Offre d'emploi
Développeur SharePoint Online (M365) – Intranet Refonte | Agile Scrum

RIDCHA DATA
Publiée le
Open Shortest Path First (OSPF)
React
SharePoint

1 an
Paris, France
Contexte de la mission Dans le cadre de la refonte d’un intranet international basé sur SharePoint Online (Microsoft 365) , nous recherchons un Développeur SharePoint Online pour intégrer une équipe Agile dédiée à la conception et au développement de nouvelles fonctionnalités intranet. L’objectif du projet est de mettre en place une plateforme intranet moderne, performante et centrée utilisateur , permettant d’améliorer l’accès à l’information, la collaboration et la communication interne dans un environnement international. Le développeur interviendra au sein d’une équipe Scrum et participera activement aux développements, aux intégrations techniques et aux livraisons incrémentales de la plateforme. Organisation de l’équipe (Scrum) Le consultant intégrera une équipe Agile de 4 personnes : 1 Business Analyst Recueil et formalisation des besoins métiers Rédaction des user stories Priorisation fonctionnelle avec le Product Owner 2 Développeurs SharePoint Online Conception et développement des solutions techniques Implémentation SPFx et intégrations M365 1 Scrum Master Animation des rituels Agile/Scrum Facilitation de l’équipe Suppression des obstacles Amélioration continue des processus L’équipe travaille en sprints de 2 semaines , avec : backlog priorisé rituels Scrum (Daily, Sprint Planning, Review, Rétrospective) logique de livraison incrémentale Objectifs du poste Développer et maintenir les fonctionnalités de l’intranet sur SharePoint Online . Participer activement aux livraisons de l’équipe Scrum . Garantir la qualité, la performance et la maintenabilité des développements. Missions principales Développement & intégration Développer des webparts et extensions SPFx (React / TypeScript). Configurer et personnaliser les sites SharePoint Modern . Concevoir et gérer : listes SharePoint types de contenu métadonnées taxonomies Intégrer des données via : Microsoft Graph API APIs externes si nécessaire Mettre en place des automatisations via Power Automate lorsque nécessaire. Travail en mode Agile / Scrum Participer aux rituels Agile : Sprint Planning Daily Meeting Refinement Sprint Review Rétrospective Estimer les user stories et contribuer au découpage technique. Collaborer étroitement avec : le Business Analyst le Scrum Master Respecter la Definition of Done (tests, documentation, qualité). Qualité & industrialisation Appliquer les bonnes pratiques de développement : revues de code tests unitaires optimisation des performances Participer à la mise en place et à l’amélioration des pipelines CI/CD . Documenter les développements réalisés. Contribuer au support applicatif si nécessaire. Environnement technique SharePoint Online (Modern Experience) SPFx (SharePoint Framework) React / TypeScript PnPjs Microsoft Graph API Azure AD App Registration Power Platform Power Automate Power Apps Azure DevOps ou GitHub Compétences requises Compétences techniques Excellente maîtrise de SharePoint Online Expérience confirmée en : SPFx React TypeScript Bonne compréhension de l’écosystème Microsoft 365 Expérience de développement dans un environnement Agile / Scrum Compétences comportementales Esprit d’équipe et collaboration Autonomie et rigueur Sens des responsabilités Capacité à travailler dans un environnement international Langues Anglais professionnel requis
Freelance
CDI

Offre d'emploi
Delivery Manager Data

VISIAN
Publiée le
Architecture
Big Data
Databricks

1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Freelance
CDI

Offre d'emploi
Chef de projet data Confirmé

VISIAN
Publiée le
Budget Management
Data management
Data quality

1 an
40k-55k €
400-600 €
Paris, France
Descriptif du Poste Nous recherchons un chef de projet confirmé pour planifier, coordonner, et faire le suivi opérationnel du déploiement mondial des Data products au sein d'une division dédiée à la gestion de l'énergie. Le projet consiste à définir avec plusieurs métiers et pays (UK, US, Italie, Espagne au moins) un planning d'adoption de 3 à 4 solutions data (gestion des données fondamentales, gestion des données de production des centrales éoliennes et solaires, gestion des données de marché...) puis à coordonner ces déploiements avec les chefs de projets de chacun de ces produits et les pays concernés. Il faudra aussi coordonner les travaux d'une équipe dédiée à ces déploiements (3 à 4 personnes réparties dans les différents projets). Le chef de projet confirmé devra assurer le reporting, la gestion des risques, les budgets de déploiement.
Freelance

Mission freelance
SAP Data Migration Manager – End-to-End

Xcede Limited
Publiée le
Data management
Data Strategy
Migration

12 mois
Paris, France
Nous recherchons un Responsable de la Migration de Données SAP parlant français et anglais pour piloter les activités de migration de données de bout en bout dans le cadre d’un programme stratégique SAP ! Responsabilités Définir et piloter la stratégie de migration des données SAP Gérer l’ensemble du cycle de vie de la migration : extraction, nettoyage, mapping, conversion, chargement et validation des données Coordonner les équipes fonctionnelles, techniques et métiers Garantir la qualité, la cohérence et l’intégrité des données Superviser les outils et méthodologies de migration Suivre les risques, les délais et les livrables liés aux données Une expérience en PLM (Product Lifecycle Management) est un plus. Si cette opportunité vous intéresse, envoyez votre CV à ou cliquez sur « Postuler maintenant » !
Freelance
CDI

Offre d'emploi
Senior IT Project Manager – Programme Data

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
Freelance
CDI

Offre d'emploi
Chef de Projet IT Data Confirmé

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
Freelance
CDI

Offre d'emploi
Développeur Typescript

VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)

1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Freelance

Mission freelance
Consultant Power BI/Azure Data Factory

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI

1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance
CDI

Offre d'emploi
Data scientist Senior

VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python

1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Freelance

Mission freelance
Chef de projet IT et Data

Clémence Consulting
Publiée le
Architecture
Data management
Gestion de projet

9 mois
600-650 €
Paris, France
Rattaché à la DSI, pour travailler sur plusieurs projets liés à la transformation digitale : création et enrichissement d’une brique data transverse, refonte de l’espace client, création d’une plateforme 360 client et d’autres sujets à venir ; nous recherchons un consultant Chef de projet IT avec expériences et appétences Data Les 3 premiers projets sont liés puisque la brique data transverse permet de collecter, consolider et exposer les données issues des applications existantes pour notamment alimenter la plateforme qui donne la vue 360 des interactions avec un client (pour différentes équipes internes avant / pendant et après la vente) et l’espace client qui permet de présenter des informations, remonter des demandes / réclamations. Avec les métiers, et les équipes DSI (les responsables d’applications et l’équipe Data), les contributions du chef de projet participeront aux objectifs de notre client de mettre en œuvre une architecture cohérente permettant : · Une vision client unifiée pour les différentes équipes internes qui sont en relation avec les clients à différents moments. · Une alimentation fiable et sécurisée du nouvel espace client. · Une exposition maîtrisée des données via APIs. Périmètre de la mission Projet 1 – Plateforme 360 client · Mise en place d’une nouvelle couche applicative de visualisation et d’orchestration (solution du marché ou développement spécifique). · Interfaçage avec l’écosystème applicatif existant (sans remplacement des outils métiers). · Déploiement du nouveau poste de travail du Centre de Relations Clients. Projet 2 – Refonte de l’Espace Client · Accompagner le remplacement de la solution en place composée d’un front et d’un back office spécifique, par une nouvelle solution alimentée par la future brique data. Brique Data transverse et commune aux projets 1 et 2 (enjeu majeur) · Cadrage de l’architecture Data. · Identification et intégration des sources applicatives. · Mise en place des flux (API, batch / temps réel …). · Modélisation des données consolidées. · Supervision de l’exposition sécurisée des données. · Pilotage de la qualité et de la gouvernance des données. · Coordination des équipes Data / Produits / infrastructure. · Responsabilités principales · Pilotage global des projets (planning, budget, risques, qualité). · Cadrage et pilotage de la mise en œuvre de l’architecture de la brique Data · Animation de la comitologie (COPIL, COPROJ …). · Coordination métiers / DSI / partenaires externes. · Rédaction de spécifications (epics et user stories). · Pilotage et contribution à la réalisation des phases de recette et mise en production. · Organisation de la transition au run (dont exploitation, monitoring des flux). · Garantie du respect des standards et procédures DSI.
Freelance

Mission freelance
Développeur AZURE Data Factory pipelines données et optimisation SQL et BDDR

Clémence Consulting
Publiée le
Azure Data Factory
Microsoft SQL Server

3 mois
Paris, France
ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Freelance

Mission freelance
Business Analyst Finance DATA / IA - Paris

Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile

9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Freelance

Mission freelance
Data Ingineer Databriks

Nicholson SAS
Publiée le
Databricks
PySpark
Python

9 mois
Paris, France
Bonjour, Dans le cadre d’un programme stratégique autour de la data, nous recherchons plusieurs Data Engineers Databricks pour intervenir sur une plateforme à fort enjeu. 📍 Localisation : France – 100% Remote 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 💰 TJM (selon séniorité et localisation) Paris : Séniorité 3 : 580 € Séniorité 4 : 660 € Séniorité 5 : 740 € Province : Séniorité 3 : 520 € Séniorité 4 : 590 € Séniorité 5 : 670 € 🚀 Contexte & Missions Dans le cadre du développement d’une usine data (plateforme Databricks) , vous interviendrez pour accélérer la mise en œuvre de cas d’usage data à forte valeur ajoutée. L’objectif est de renforcer les équipes avec 6 Data Engineers (confirmés à seniors). À ce titre, vos missions seront : Développer et industrialiser des pipelines de données sur Databricks Participer à la mise en œuvre de cas d’usage data Optimiser les traitements et la performance des workflows data Contribuer à l’architecture et à l’évolution de la plateforme data Garantir la qualité, la fiabilité et la traçabilité des données 🛠️ Environnement technique Databricks (Data Intelligence Platform) Azure Databricks Apache Spark Python SQL 🎯 Profil recherché Data Engineer Databricks Expérience : à partir de 3 ans (profils confirmés à seniors) Bonne maîtrise des environnements data modernes et distribués Capacité à travailler en autonomie dans un contexte agile ✅ Compétences clés Développement de pipelines data sur Databricks Maîtrise de Spark (PySpark) Solide niveau en Python & SQL Bonne compréhension des architectures data (batch / streaming) 💡 Mission long terme avec forte visibilité.
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

470 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous