Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 217 résultats.
Freelance

Mission freelance
Développeur / Data Engineer Observabilité h/f

Publiée le
Azure
DevOps
Grafana

6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Freelance

Mission freelance
Head of Data

Publiée le
Gouvernance
Management
Pilotage

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Freelance
CDI

Offre d'emploi
Lead Ingénieur QA Data

Publiée le
Cypress
Selenium

3 ans
40k-47k €
360-430 €
Chambéry, Auvergne-Rhône-Alpes
Télétravail partiel
Ingénieur QA Data au sein d’une équipe agile dédiée à la qualité des données, des modèles et des fonctionnalités d'une plateforme logicielle interne. Le rôle consiste à garantir la conformité, la fiabilité et la performance des produits data, à maintenir la documentation, à contribuer à l’amélioration continue et à harmoniser les pratiques qualité en collaboration avec les équipes techniques et support. Planification et exécution de tests (fonctionnels, données, performance, ML), automatisation, rédaction de tests de non-régression, audits qualité, gestion de la documentation data/ML, mise en place de processus qualité, suivi des normes, veille réglementaire, support utilisateurs.
Freelance
CDI

Offre d'emploi
DATA ENGINEER MICROSOFT BI

Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SQL Server

3 ans
40k-60k €
350-500 €
Paris, France
Télétravail partiel
Bonjour 😊 Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI Senior. Dans le cadre de la poursuite de la mise en place de la plateforme décisionnelle au sein du SI de notre client, nous recherchons un développeur MS BI confirmé opérationnel immédiatement sur les technologies utilisées (Voir $Connaissances Indispensables) Le consultant participera au développement et à la maintenance évolutive et corrective du système décisionnel. Cette ressource sera positionnée au sein de l’équipe BI dans le service MOE E&D. Vous aurez à effectuer les actions suivantes : • Participer à la formalisation des spécifications fonctionnelles • Analyser les besoins et identifier les éventuels impacts sur l’existant • Proposer des solutions et participer à la phase de modélisation. • Contribuer aux choix d’architecture technique (en lien avec l’équipe projet DWH et les équipes infrastructure/architecture) • Contribuer au plan de charge et à la définition du planning • Rédiger les spécifications techniques • Prendre en charge le développement nouvelles demandes (Intégration de nouvelles données, Cubes, Rapports, …) • Rédaction des documents d’exploitation • Rédiger les consignes de pilotage • Accompagner la Direction Informatique lors des phases de déploiement en homologation et production • Accompagner le métier Reporting lors des phases de recette • Accompagner l’équipe Support & Maintenance • Assurer la maintenance corrective (3ème niveau) • Assurer les remontées d’informations auprès du responsable MOE E&D SQL Server 2012(migration vers 2022 en cours) (Requêtes, Vues, Procédures stockées, Optimisation, …), SSIS, SSAS (Cube tabulaire), DAX, SSRS, Visual Studio 2022, Azure DevOps, PowerBI
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Data Warehouse
Oracle
SQL

1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Freelance
CDI
CDD

Offre d'emploi
Expert OpenShift – Administration de Clusters (H/F) – Paris

Publiée le
Ansible
CI/CD
Kubernetes

1 an
Paris, France
Contexte : Nous recherchons un Expert OpenShift pour accompagner l’administration et l’évolution d’une infrastructure containerisée à grande échelle. Vous interviendrez au sein d’équipes techniques expérimentées pour garantir la stabilité, la performance et la sécurité des environnements OpenShift en production. 🎯 Vos principales missions : Assurer l’ administration, la supervision et le maintien en conditions opérationnelles (MCO) des clusters OpenShift. Gérer l’ évolution et l’optimisation des plateformes d’hébergement. Réaliser l’ analyse et la résolution des incidents de niveau 2 et 3 . Participer à l’ industrialisation et à l’automatisation des opérations (Ansible, scripts, CI/CD…). Apporter votre expertise et vos recommandations techniques pour améliorer la fiabilité et la performance. Assurer les astreintes et interventions en HNO si nécessaire. 🧩 Compétences techniques requises : OpenShift – Expert – impératif Kubernetes – Confirmé – impératif Linux (Red Hat / CentOS) – Confirmé – impératif Automatisation (Ansible, CI/CD, scripting) – Confirmé – impératif Anglais professionnel – impératif
Freelance

Mission freelance
DATA Analyst SIG - GPS

Publiée le
Data analysis
SIG (Systèmes d'Information Géographique)

12 mois
550-580 €
Paris, France
Télétravail 100%
En quelques mots Cherry Pick est à la recherche d'un "DATA Analyst SIG - GPS" pour un client dans le secteur Public Description Data Analyst SIG – Expert Données GPS & Mobilité (H/F) Technologie clé : Databricks / Python / SQL Spatial Niveau : Expérimenté / Confirmé 🌐 Le Contexte Nous recherchons pour notre client, acteur majeur dans le secteur de la Mobilité/Logistique , un Data Analyst confirmé possédant une expertise pointue en Géomatique (SIG) . Vous rejoignez une équipe Data où la dimension spatiale est critique. Votre rôle ne sera pas simplement d'analyser des chiffres, mais de faire "parler" des millions de points GPS bruts pour reconstituer des parcours, optimiser des tournées et comprendre la réalité terrain des déplacements. 🎯 Votre Mission : Dompter la donnée GPS Vous êtes le référent sur le traitement et la valorisation des données de géolocalisation. Vous transformez une donnée brute, souvent bruitée, en informations métier fiables (arrêts, trajets, adresses). Vos défis techniques & fonctionnels : Qualité & Nettoyage de la donnée GPS : Détection et correction des points aberrants (outliers). Traitement du bruit GPS et lissage des trajectoires. Map Matching & Rapprochement Voirie : Projeter les points GPS bruts sur le filaire de voirie (snapping) pour reconstituer le trajet réel emprunté. Gérer les cas complexes (tunnels, zones urbaines denses, "canyons urbains"). Analyse des Arrêts & Adresses : Identifier les arrêts logistiques vs les arrêts de circulation (feux, bouchons). Réconcilier les positions d'arrêt avec les adresses distribuées (Geocoding / Reverse Geocoding précis). Détecter les changements de moyens de locomotion (multimodalité). Analyse Comportementale & Temporelle : Comparer les parcours réalisés entre différentes journées (analyse de régularité, détection d'anomalies de parcours). Calculer des indicateurs de performance spatiaux (ETA, temps de trajet réel vs théorique).
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Dremio

Publiée le
Dataiku

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
L'équipe Reporting & Analyse du risque contribue au pilotage mensuel du risque avec la mise à jour du datamart risque et des reportings risque. Pour cela un RUN mensuel devra perdurer en même temps que les développements induits pour les nouveaux usages data ( nouvelles expositions de données, nouveaux outils de data préparation DREMIO-DATAIKU et utilisation de PBI report server). Cette mission a pour objectif de développer des flux dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. La construction et le fonctionnement de ces mises en place devront être documentés. L’équipe reporting tient à cœur de développer des suivis automatisés et optimisés. Une intégration au run mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées dans le but de s’imprégner du fonctionnement de l’équipe. Prestations demandées • Comprendre le fonctionnement actuel du datamart risque. • Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU • Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel • Participation au double run mensuel
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance

Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Dataiku
ELK

3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Freelance

Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.

Publiée le
Méthode Agile

6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Freelance

Mission freelance
Senior Data Scientist

Publiée le
ADFS
Analyse financière
Azure

6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Freelance
CDI

Offre d'emploi
Data Ops

Publiée le
Apache Spark

1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance

Mission freelance
Chef de Projet Data Client Technico-fonctionnel

Publiée le
Data quality
Modèle Conceptuel des Données (MCD)
Transformation digitale

3 mois
550-600 €
Guyancourt, Île-de-France
Télétravail partiel
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
Freelance

Mission freelance
237039/Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort

Publiée le
Informatica

3 mois
380-410 £GB
Niort, Nouvelle-Aquitaine
Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1217 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous