Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 428 résultats.
Freelance

Mission freelance
Business Analyst / Data – AML Monitoring - Paris

Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analysis
Data governance

1 an
Paris, France
Dans le cadre du programme AML Monitoring , nous recherchons un(e) Business Analyst orienté Data pour accompagner les initiatives d’amélioration de la couverture des risques AML sur plusieurs lignes métier. 🎯 Enjeux : amélioration de la résolution d’entités et de la qualité / enrichissement des données au sein de la chaîne AML. 🚀 Missions Définition des Business Requirements et rédaction des spécifications fonctionnelles Définition et exécution de la stratégie de tests Coordination avec les équipes de développement Reporting d’avancement, gestion des risques et des incidents 📊 Sur les initiatives Data : Intégration des solutions de Entity Resolution dans la chaîne AML Mise en place du référentiel d’entités et suivi de la qualité des données Définition et implémentation de contrôles automatiques Analyse des incidents et rédaction de Production Incident Reports
Freelance

Mission freelance
Azure Platform Engineer – Data & Analytics

Codezys
Publiée le
Ansible
Azure
Azure Data Factory

6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Freelance

Mission freelance
Préparation des données industrielles (BOM, gammes, postes, articles) en vue de la bascule vers SAP

Mon Consultant Indépendant
Publiée le
Data management
Gestion de projet

6 mois
500-540 €
Paris, France
Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
CDI

Offre d'emploi
Consultants MS BI Confirmés H/F

MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI

Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
CDI

Offre d'emploi
Vice-président Conseil Expert Data / IA

Signe +
Publiée le

85k-100k €
Paris, France
Dans le cadre de la croissance des activités autour de la Data et de l'Intelligence Artificielle, nous recherchons un(e) Vice-Président Conseil Expert Data / IA afin d'accompagner les clients dans leurs enjeux de transformation et de performance. À ce poste stratégique, vous jouez un rôle clé dans le développement de la proposition de valeur Data / IA ainsi que dans le rayonnement de l'expertise. Vos principales responsabilités : • Contribuer au développement commercial en apportant votre expertise Data / IA aux équipes de vente • Garantir un haut niveau de satisfaction client et la qualité des prestations délivrées • Promouvoir l'expertise Data / IA auprès des clients, du marché et des partenaires • Animer une communauté d'experts (structuration d'offres, partage de connaissances, diffusion de bonnes pratiques) • Accompagner les consultants en mission et contribuer à leur montée en compétences • Participer à la définition des offres et à leur mise en œuvre opérationnelle Vous intervenez auprès de clients grands comptes et ETI, notamment dans les secteurs Retail, Luxe et Industrie, sur des programmes de transformation stratégique et d'amélioration continue. Référence de l'offre : 5xfrj8op47
Freelance

Mission freelance
Data Engineer industriel

MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel

6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
CDI

Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)

FED SAS
Publiée le

60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYTHON

UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins

3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
CDI

Offre d'emploi
Architecte Solution Data

VISIAN
Publiée le
ArchiMate
TOGAF

50k-62k €
Paris, France
Description et livrables de la prestation : Concevoir, valider et faire respecter l'architecture technique et fonctionnelle des solutions pour assurer leur conformité aux standards, à la stratégie IT-DATA et aux exigences de sécurité. Garantir la cohérence, la performance, la réutilisation et la gestion des risques tout au long du cycle de vie des projets. Vous aurez la responsabilité de sujets portant sur la Vision 360 Client, le MDM, etc... au sein de l'équipe Architecture Solutions Data - IA - KYC - Client Pour cela, voici les missions clés : Conception de solutions : Élaborer des dossiers de design (DDS), en intégrant les standards (refcards) et l’impact data, IA, sécurité, et digital. Pilotage et accompagnement : S’assurer de l’implémentation conforme, suivre la livraison et gérer les écarts ou remédiations. Participation à l’élaboration d’une cible d’Architecture Data en collaborant avec les architectes d’entreprise et product managers Animation transverse et gouvernance : Participer aux instances stratégiques, animer la communauté d’architectes autour de vos sujets, promouvoir les bonnes pratiques. Sécurité et conformité : Intégrer les enjeux de cybersécurité, de protection des données, et de conformité réglementaire. Défendre et promouvoir la stratégie d’architecture : principes « Tous Architectes », mise à jour du référentiel, défense de la cible d’architecture et des enjeux métier/données. Analyser et répondre aux RFP : Identifier, challenger et co-construire des solutions adaptées, auditables, et déployables. Veille technologique et marché : Maintenir une connaissance à jour des innovations (cloud, IA, Data, sécurité, microservices, API, DevSecOps).
Freelance

Mission freelance
250762/Data Engineer TERADATA ET DATAVIZ

WorldWide People
Publiée le
Data visualisation
Teradata

1 mois
400 €
Paris, France
Data Engineer TERADATA ET DATAVIZ Project context Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Goals and deliverables Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Freelance

Mission freelance
Consultant technique SAP Data Migration (Syniti ADM) - IDF

Signe +
Publiée le
SAP ABAP

6 mois
500-700 €
Paris, France
Dans le cadre d’un programme stratégique, notre client engage une transformation de son système d’information avec le déploiement de SAP S/4HANA . La mission s’inscrit dans un contexte à forts enjeux autour de la migration des données , élément clé pour garantir la continuité des opérations métiers et le respect du planning projet. En tant que Consultant SAP Data Migration, vous interviendrez sur : Le développement et paramétrage des objets de migration dans Syniti ADM La conception et maintenance des extracteurs SAP (ABAP, BAPI, LSMW, IDoc, OData) L’ analyse des structures de données sources (ECC) et cibles (S/4HANA) La définition des règles de transformation, mapping et validation des données Le support aux cycles de migration : mock runs, SIT, UAT, cutover La gestion des anomalies techniques et l’optimisation des performances de chargement La collaboration étroite avec les équipes fonctionnelles, techniques et data Informations complémentaires : Localisation : Île-de-France Présence sur site : Minimum 3 jours par semaine Démarrage : ASAP Habilitation Obligatoire
Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

QODEXIA
Publiée le
Docker
GitLab CI
MLOps

10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Freelance

Mission freelance
Data ingénieur BI/SQL

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

6 mois
500-580 €
Paris, France
Un profil avec des connaissances sur les technologies Microsoft BI (SSIS, SSRS et SSAS) ainsi que la maitrise du SQL, doté d’un bon relationnel et ayant la volonté de travailler en équipe. Le profil devra avoir une capacité et une volonté de montée en charge et disposer d’un sens logique avancé. Par ailleurs il devra maitriser les composantes suivantes : • DataViz : rapports dynamiques et Power BI • Datawarehouse : conception et modélisation (y compris cube tabulaires) • Base de Données : SQL Server • ETL/ELT: SSIS Description détaillée des tâches qui incombent : o Migration entrepôt legacy BDD (800 tables) o Migration Datahub BDD (900 tables) o Migration des ETL SSIS (633 packages) o Migration de procédures stockées (1550 ps) o Migration DataViz SSRS, SSAS et power bi (300 rapports)

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

428 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous