Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 210 résultats.
Freelance

Mission freelance
Architecte fonctionnel Data

Publiée le
TOGAF
UML

3 ans
500-800 €
Paris, France
Télétravail partiel
Pour renforcer nos équipes chez l'un de nos clients grands comptes, nous recherchons un Architecte fonctionnel Data F/H. Rattaché à la direction de l'Architecture et de la Sécurité de la DSI, ce pôle accompagne les métiers sur le plan d'architecture Data. Missions : Conseil et accompagnement en architecture fonctionnelle Data Aider les équipes produit à identifier et formaliser les exigences nécessaires à la bonne instruction de l’architecture. Apporter une expertise sur les solutions Data à mettre en œuvre au regard des besoins métiers. Accompagner les équipes dans la conception des solutions, et formaliser : - L’architecture émergente en phase d’affinage ; - L’architecture cible et les paliers d’évolution en phase de cadrage projet ; - Le dossier d’architecture (modélisation des données, cinématique fonctionnelle, cartographie produit, flux, principes, exigences et hypothèses). Proposer et mettre en œuvre des évolutions du cadre d’architecture et du cadre opérationnel (templates, modélisations, cartographies), en particulier sur les projets à dominante Data. Livrables attendus Documents d’architecture : dossiers projet et produit (Design Authority, HLD, modélisations Enterprise Architect). Livrables de cadrage : expression de besoin, dossier de choix de scénario SI, dossier d’architecture, questionnaire d’autoévaluation. Livrables d’engagement : dossiers de revue par les corps instructeurs, dossier d’engagement. Supports et comptes rendus des ateliers et réunions démontrant l’avancement des travaux. Synthèse hebdomadaire à destination de l’architecte référent sur les points structurants d’architectures. À l’issue des études, la mission pourra se poursuivre par un accompagnement dans la mise en œuvre des solutions définies, incluant des tâches de pilotage et de coordination (rôle de Chef de projet Architecture).
Freelance

Mission freelance
Product Owner Data / LILLE

Publiée le
Azure DevOps

12 ans
400-480 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons pour l’un de nos client un Product Owner Data pour un client basé sur Lille (présentiel 3 jours / semaine). Mission : Cadrage, Analyse, Expression des besoins auprès des directions métiers Priorisation par la valeur du contenu métier, Participation aux rituels avec l’équipe projet, Recette fonctionnelle des développements réalisés, Gestion de Projet, Communication sur l’avancement du produit auprès du management IT et des métiers, Préparation, déploiement du projet et mise en œuvre des actions d’accompagnement des utilisateurs.
Freelance

Mission freelance
‼️URGENT ‼️ 2x Data Analyst Power BI – Industrie ‼️

Publiée le
CI/CD
Microsoft Power BI
Python

1 an
360 €
Strasbourg, Grand Est
🔍 Nous recherchons deux Data Analysts Power BI pour renforcer une équipe projet dans l’industrie. La mission est de longue durée. 📍 Strasbourg (sur site obligatoire) 📅 Démarrages : 1 ASAP + 1 en janvier 🎯 Missions : ✅ Création & optimisation de dashboards Power BI ✅ Analyse et traitement de données (Python, SQL) ✅ Contribution aux workflows Git CI/CD ✅ Échanges réguliers avec les métiers pour comprendre les besoins 👉 3 à 4 ans d’expérience en Data Analysis 👉 À l’aise en environnement industriel 👉 Force de proposition et autonomie
CDI

Offre d'emploi
Data architect senior H/F

Publiée le

50k-60k €
Strasbourg, Grand Est
Télétravail partiel
Au sein de la DSI, vous intégrez une équipe pluridisciplinaire et jouez un rôle stratégique dans la définition, la structuration et l'évolution des architectures data. Vous êtes garant de la cohérence, de la performance et de la sécurité des systèmes de données. Concevoir et faire évoluer l'architecture data globale (modélisation, flux, stockage, sécurité) Définir les standards et bonnes pratiques en matière de gouvernance des données Superviser la mise en place des pipelines de données (Databricks, Power Automate) Piloter la modélisation des bases de données SQL et NoSQL Collaborer avec les équipes métier et techniques pour aligner les besoins fonctionnels et les solutions data Assurer la qualité, la traçabilité et la fiabilité des données dans un environnement cloud Participer au suivi et à la maintenance de l'exploitation
Freelance
CDI

Offre d'emploi
Business Analyst Data & IA

Publiée le
Business Analysis
Dataiku
IA

1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Freelance

Mission freelance
Data Engineer (F/H) - 56

Publiée le
Apache Kafka
Java
Shell

1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Freelance
CDI

Offre d'emploi
Chef de projet Data H/F

Publiée le
Azure Synapse
Microsoft Power BI
Pilotage

1 an
45k-58k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Suite à une restructuration interne chez notre client dans le secteur de l'immobilier, nous recherchons un(e) Chef(fe) de projet Data à Bordeaux Missions Recenser et analyser les besoins métiers. Lire et comprendre les cahiers d’analyse. Participer aux COPROJ / COPIL. Suivre la RDD, les recettes, le run et les tickets JIRA. Rédiger les process et modes opératoires. Suivi des plannings et risques projets Environnement technique Microsoft Azure Azure Synapse Analytics Microsoft SQL Server Microsoft Power BI Démarrage : ASAP – Recherche quelqu’un pour démarrage de mission en cette fin d’année
CDI

Offre d'emploi
Product Owner Data H/F

Publiée le

45k-50k €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : ohsw8wehfq
Freelance

Mission freelance
Data Privacy expert

Publiée le
RGPD

12 mois
650-760 €
Paris, France
Télétravail partiel
Mission : Développement et adaptation des politiques du Groupe en matière de confidentialité des données, conformément aux lois et réglementations applicables, y compris les formulaires de consentement, d’autorisation, les avis d’information et les documents reflétant les pratiques juridiques et organisationnelles actuelles. Adoption et mise en œuvre d’exigences ou de lignes directrices détaillées pour assurer une gestion conforme des sujets spécifiques jugés nécessaires. Formation et conseil juridique à toutes les entités sur les questions de confidentialité des données. Soutien et contrôle du registre général de protection des données. Accompagnement des projets, fourniture d’évaluations de conformité en matière de confidentialité des données et validation lorsque la conformité aux lois applicables est jugée satisfaisante. Interface avec les équipes chargées de répondre aux demandes d’accès et de gérer les incidents et violations de données personnelles. Assistance à la rédaction d’accords de confidentialité des données, d’analyses d’impact sur la protection des données et de notes de position. Révision et suivi des activités commerciales, des contrats fournisseurs et des négociations. Participation aux comités. Contrôle Permanent : Contrôle des réglementations sur la confidentialité des données. Interface avec les instances de gouvernance d’entreprise. Communication et reporting auprès de l’autorité locale de protection des données, en s’appuyant sur la relation avec les instances de gouvernance locales du Groupe et ses entités. Interface avec d’autres experts métiers. Expertise technique : Expertise préalable en confidentialité des données / conformité (juridique ou sécurité informatique). Environnement de travail en anglais et contexte anglophone – Obligatoire. Environnement de travail en français et contexte francophone – Souhaitable. Autres expertises et capacités : 2 à 8 ans d’expérience (idéalement incluant une expertise en négociation contractuelle). Capacité à prioriser les tâches avec un plan d’action clair. Expertise en responsabilité et en livraison de résultats de haute qualité dans les délais et le budget impartis. Expertise dans la remise en question des processus de travail inefficaces et la promotion d’alternatives constructives. Expertise dans l’utilisation de critères appropriés pour évaluer régulièrement les processus de travail, les services et les livrables. Capacité à solliciter et/ou fournir des informations pouvant influencer la planification, les programmes et la prise de décision de l’organisation. Capacité à établir des relations solides avec un large éventail de profils et d’expertises en informatique et dans les organisations métiers. Capacité à gagner la confiance des clients internes et des autres parties de l’organisation tout en favorisant le changement. Excellente expertise en communication à tous les niveaux. Style collaboratif et expertise en travail d’équipe, avec une excellente expertise en gestion de projet et expertise interculturelle.
Freelance
CDI

Offre d'emploi
DATA ENGINEER MICROSFT BI / POWER BI

Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS

3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI / Power BI. Contexte : La poursuite de la mise en place de la plateforme décisionnelle au sein du SI de Covéa Finance, nous recherchons un développeur MS BI confirmé . Le consultant interviendra sur le développement, la maintenance évolutive et corrective du système décisionnel. Il sera rattaché hiérarchiquement au Responsable MOE E&D et intégré à l’équipe DWH pour répondre aux demandes tactiques de la plateforme décisionnelle du directeur de projet. Missions principales : Formaliser les spécifications fonctionnelles et analyser les besoins. Identifier les impacts sur l’existant et proposer des solutions techniques. Participer à la modélisation des données et aux choix d’architecture technique. Contribuer au plan de charge et à la définition du planning. Rédiger les spécifications techniques et documents d’exploitation. Développer les nouvelles demandes : intégration de données, création de cubes tabulaires , rapports et dashboards. Assurer le déploiement en homologation et production. Accompagner la MOA et les métiers lors des phases de recette. Support et maintenance corrective (niveau 3). Remonter les informations et indicateurs à son responsable hiérarchique. Compétences techniques indispensables : Expertise sur Microsoft Fabric / MS BI . Maîtrise SQL et T-SQL . Développement et maintenance de SSRS et cubes tabulaires . Expérience en Power BI : dashboards, modélisation, DAX. Bonne compréhension des processus décisionnels et reporting métier . Compétences transverses : Esprit d’analyse et rigueur. Capacité à travailler en équipe et à collaborer avec les équipes métier et infrastructure. Autonomie et force de proposition. Bon relationnel et sens du service client interne. Localisation :
CDI
Freelance

Offre d'emploi
Ingénieur DevOps Big Data (H/F)

Publiée le
Ansible
Apache Kafka
Cloudera

1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
CDI

Offre d'emploi
Consultant Administrateur Applicatif BI / Data

Publiée le
Microsoft Power BI
Qlik Sense
Sap BO

Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Freelance
CDI
CDD

Offre d'emploi
Développeur Data NodeJS/Angular/Python

Publiée le
Angular
Node.js
Python

1 an
50k-55k €
450-500 €
France
Télétravail 100%
Le projet consiste à maintenir et faire évoluer des plateformes Data. Elles permettent la réutilisation des données et s’inscrivent dans la volonté de valorisation de la data Client. Chaque plateforme possède la donnée propre à son entreprise. Les 2 plateformes sont les copies d’un même code, Les objectifs du projet sont les suivants : •Proposer un vaste catalogue de données téléchargeables sous la forme de jeux de données dont de la donnée confidentielle, et en permettre la commande •Former/informer à la data, et à la data gouvernance : glossaire des termes, dictionnaires des objets, description des filières de données, catalogue des gisements •S’abonner aux Services Web proposant de la donnée et aux flux d’interopérabilité •Proposer des espaces sécurisés, nommés Datarooms pour travailler la donnée •Explorer la donnée des gisements par requêtage L’application est développée avec diverses technologies : Pour la partie Front : Angular Pour la partie Back : Node JS Ingestion des données (micro-service) : Python Pour la communication entre les micro-services : RabbitMq
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance
CDI

Offre d'emploi
Data Engineer Expérimenté

Publiée le
Microsoft Power BI

18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
CDI
Freelance

Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance

Publiée le
Databricks
Jenkins
Python

1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1210 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous