Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 435 résultats.
CDI

Offre d'emploi
Développeur Full-Stack C# Finance (FH)

ASTRELYA
Publiée le
.NET CORE
API REST
AWS Cloud

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Développeur Fullstack C# finance vous interviendrez dans un éco système banque sur des sujets critiques liés à la gestion et à la qualité des données produit. Vous participerez à la conception, au développement et à l’évolution d’extensions et d’APIs essentielles au fonctionnement du SI. Concrètement vous allez : La conception et développement de nouvelles fonctionnalités. La contribution au développement Frontend (React/TypeScript) et Backend (.NET Core/C#). La participation aux activités DevOps (CI/CD, déploiement sur Kubernetes, monitoring via Elastic/Kibana). Support technique et maintien en conditions opérationnelles des applications et APIs. Votre futur environnement technique : Back-end : .NET Core/C# Front-end : React/TypeScript APIs : REST Cloud : Azure et/ou AWS
Freelance

Mission freelance
Python Software Engineer Senior

Aneo
Publiée le
AWS Cloud
Python
Ray

7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance
CDI

Offre d'emploi
FinOps Cloud / Profil habilitable

ematiss
Publiée le
Cloud
FinOps

3 mois
Paris, France
CONTEXTE : Au sein de la Direction de la Transformation Numérique du client et sous la responsabilité du Chef du Bureau de l’Architecture et de la Cohérence des Infrastructures à la sous direction des architectures sécurisées, l’expert(e) technique en processus financiers du Cloud ou FinOps agit comme un levier de pilotage économique du Cloud grâce à sa maîtrise des outils de billing, garantissant la soutenabilité des dépenses pour la direction, la transparence des coûts et l’efficience de l’usage des ressources pour les entités clientes. ACTIVITES PRINCIPALES : Développer et maintenir des modèles de coûts du Cloud : Grâce à sa maîtrise des environnements Cloud et à sa compréhension fine des différentes offres (IaaS OpenStack, S3, GPU, OpenShift…), le FinOps identifie précisément les inducteurs de coûts (vCPU, RAM, Stockage Bloc et Objet etc.) et les traduit dans des modèles de facturation capables de s’adapter aux évolutions du catalogue de service. Il fait évoluer les normes de gestion budgétaires et les mécanismes de refacturation internes permettant de valoriser la consommation des ressources tout en s’assurant de leur alignement et de leur conformité avec les recommandations tarifaires. Réaliser des tableaux de bord et produire des reporting L’expérience requise avec les outils de collecte, d’automatisation et d’analyse de données (API, scripts, data lakes, Grist, Python, SQL etc.) doit permettre au FinOps d’agréger facilement l’ensemble des consommations en ressources des clients puis de les segmenter en fonction du projet ou de la ressource pour obtenir une allocation précise des coûts et des tableaux de bord et reporting ad hoc. Ces travaux enrichiront ceux de l’équipe chargée de mettre à disposition des clients des métriques de consommation dans la Console d’administration. Optimiser le capacity planning avec l’IA Le Finops consolide et fiabilise les outils existants de capacity planning en mettant en place des modèles prédictifs basés sur l’IA permettant d’anticiper les patterns d’usage des clients et donc les dépenses à engager. En outre, il anticipe les pics de charge et optimise les prévisions budgétaires. Diffuser les bonnes pratiques FinOps à l’échelle de la sous-direction Il travaille en étroite collaboration avec les différentes équipes en apportant une assistance concrète dans la définition et la mise en œuvre des actions de modernisation de la fonction financière. Il est force de proposition pour intégrer les contraintes financières dans les choix techniques et opérationnels des différents acteurs concernés. Il participe à une maîtrise des coûts conformes aux prévisions budgétaires et peut le cas échéant contribuer aux négociations avec les fournisseurs. CONTRAINTES 1-A minima une expérience précédente en tant que FinOps, de préférence dans un environnement Cloud. 2- Doit posséder des bases OpenStack. Durée : 3 mois renouvelables

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

435 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous