Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 428 résultats.
Freelance

Mission freelance
Expert Sécurité

DEVIK CONSULTING
Publiée le
Azure
Cybersécurité

1 an
500-680 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Sécurité, qui sera responsable de la cybersécurité des services et plateformes d’Intelligence Artificielle fournis par les équipes Data & Analytics. Il contribuera à la définition de la stratégie de cybersécurité et des politiques associées pour l’ensemble des sujets relatifs aux services et plateformes d’IA. Tâches principales Accompagner les équipes dans l’intégration de la sécurité au sein des projets Accompagner les responsables sécurité métiers sur les sujets liés à Data & Analytics Garantir la conformité continue en matière de sécurité, incluant les plans de remédiation et d’amélioration ainsi que le reporting périodique Renforcer le niveau global de sensibilisation à la sécurité des parties prenantes via des actions de formation et d’awareness Assurer la gestion des incidents de cybersécurité et contribuer à la résolution des incidents majeurs ou situations de crise Piloter la standardisation de la sécurité en définissant et en promouvant des règles et référentiels de sécurité Compétences demandées Cybersécurité : Confirmé Microsoft Azure : Confirmé Data Gouvernance : Avancé Microsoft 365 Copilot : Expert Intelligence Artificielle : Expert Langues Anglais : Courant Français : Courant Lieu : Paris
Freelance

Mission freelance
Power Platform Developer

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Microsoft Entra ID
Microsoft Fabric
Power Platform

6 mois
Paris, France
Power Platform Developer Objectif principal : Développer une solution interne stratégique pour améliorer la performance commerciale via Power Apps, Power Automate, et Microsoft Fabric. Compétences clés requises : Expertise avancée en Power Apps (Canvas et Model-Driven) Maîtrise de Microsoft Fabric (OneLake, Lakehouses, Data Warehouses) Capacité à concevoir des workflows complexes avec Power Automate Expérience en modélisation dans Dataverse Développement de composants personnalisés (TypeScript/JavaScript, PCF) Intégration d’API RESTful et connecteurs personnalisés Gestion de déploiements via Azure DevOps ou GitHub Optimisation des performances et sécurité d’entreprise (RLS, DLP, Entra ID)
CDI
Freelance

Offre d'emploi
AWS Platform Engineer

Ela Technology
Publiée le
AWS Cloud
Méthode Agile

6 mois
40k-45k €
300-380 €
Paris, France
Au sein d’une squad Data & Analytics Platform, vous contribuerez à la construction, l’évolution et la fiabilisation des environnements Cloud. Vous interviendrez notamment sur : (2 ans d'expérience minimum) Le développement, la mise à jour et la maintenance du code infrastructure Terraform dans Azure et/ou AWS, en respectant les standards sécurité. L’enrichissement de la documentation à destination des utilisateurs. La conception et la maintenance de chaînes de déploiement automatisé (CI/CD). Français & Anglais
Freelance
CDI

Offre d'emploi
Business Analyst - Credit Derivate (H/F)

STORM GROUP
Publiée le
AMOA
MOA

3 ans
45k-65k €
500-620 €
75000, Paris, Île-de-France
Au sein d’une nouvelle équipe, le consultant participera à l’implémentation d’une nouvelle solution de data visualisation et de suivi en temps réel des indicateurs de risques de marchés et de suivi de P&L pour les desks de dérivés de Credit flows (CDS Single Name & Index, CDS Index options, Bonds). De formation supérieure (école d’ingénieur ou master), spécialisé dans les systèmes d’information et la finance de marchés, le consultant devra maitriser le cycle de développement logiciel et avoir de solides compétences en suivi des indicateurs de marché (grecques et P&L) sur un desk de dérivés de crédit. Doté d'une bonne rigueur et d'une grande réactivité, le consultant aura le sens de la communication. Il saura anticiper et prendre des initiatives. Il est reconnu pour son esprit d’analyse et de synthèse. Son niveau d'anglais est courant (à l'écrit comme à l'oral). La mission se déroulera au sein des équipes d’études et développements IT GMR Pre-Trade Sales & Execution des solutions d’exécution et de suivi d’exposition Pre-Trade pour le métier Global Markets & Risks de la CIB. Qualités et compétences requises :  Ecole d’ingénieur ou Master en finance et informatique  5 à 7 ans d’expérience minimum  Connaissance des dérivés de Crédit  Suivi des risques (Explain/Expected P&L), gestion de la market data en temps réel  Fort intérêt pour la finance de marchés et les dérivés  Intérêt pour les nouvelles technologies et les challenges techniques  Curiosité, autonomie, proactivité
CDI

Offre d'emploi
Ingénieur Devops Senior AZURE F/H

ASTRELYA
Publiée le
Ansible
Azure DevOps
Azure Kubernetes Service (AKS)

75008, Paris, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission En tant qu’Ingénieur(e) DevOps Senior spécialisé(e) Azure, vous jouerez un rôle clé dans la conception, l’industrialisation et l’optimisation des plateformes Cloud de nos clients. Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux de modernisation, d’automatisation et de fiabilisation des environnements de production. Concrètement, vous allez : · Concevoir, déployer et maintenir des architectures Cloud Azure robustes, scalables et sécurisées. · Mettre en place et optimiser des pipelines CI/CD (GitLab, GitHub Actions, Azure DevOps…). · Automatiser l’infrastructure via IaC (Terraform, Bicep, Ansible). · Industrialiser les environnements conteneurisés (Docker, Kubernetes / AKS). · Implémenter les bonnes pratiques DevSecOps (sécurité, conformité, scanning, secrets management). · Superviser et améliorer la performance, la résilience et la disponibilité des plateformes. · Accompagner les équipes de développement dans l’adoption des bonnes pratiques Cloud & DevOps. · Participer à la définition des standards d’ingénierie et à la diffusion de la culture Craft & SRE. Votre futur environnement technique · Cloud : Azure (AKS, App Services, Functions, Storage, Key Vault, APIM, Monitor…) · CI/CD : GitLab CI, GitHub Actions, Azure DevOps, Jenkins · Conteneurs : Docker, Kubernetes, Helm · Infrastructure as Code : Terraform, Ansible, Bicep · Sécurité : DevSecOps, scanning, Azure Defender, secrets management · Observabilité : Prometheus, Grafana, Azure Monitor, ELK · Automatisation & scripting : PowerShell, Bash, Python
Freelance

Mission freelance
Rapid Developer - Microsoft - Vibe Coding - Claude (h/f)

emagine Consulting SARL
Publiée le

1 mois
550-700 €
75000, Paris, Île-de-France
Vous êtes un développeur de produits agile et pragmatique, doté d'une solide expérience de Microsoft/Azure et d'un talent particulier pour le prototypage rapide et la création d'applications assistée par l'IA ? emagine vous propose de rejoindre son équipe pour aider l'entreprise à concevoir et à déployer des applications et des tableaux de bord à délai de mise en œuvre rapide, en collaboration directe avec les utilisateurs sur site à Paris. Are you a hands-on Rapid Product Developer with strong Microsoft/Azure experience and a knack for rapid prototyping and AI‑assisted app building? emagine has an opportunity for you to support the business in shaping and delivering quick-turnaround applications and dashboards directly with users on-site in Paris. This role is ideal for someone entrepreneurial yet comfortable operating within a large enterprise environment—able to move fast while navigating governance, KPIs, and stakeholder expectations. You’ll be building simple but impactful applications using vibe coding approaches, with a strong emphasis on turning vague business asks into usable tools quickly. Key Tasks & Deliverables Work hands-on with business users in Paris to understand needs, challenge scope, and define what “good enough to ship” looks like. Build rapid prototypes and lightweight applications using vibe coding and AI-assisted development. Deliver simple dashboards and data-driven tools closely aligned to operational needs. Integrate solutions across Microsoft/Azure ecosystems—including CRM, messaging, and operational systems. Act as a product-builder, not just a coordinator: from requirements to hands-on implementation. Operate in a hybrid mindset: entrepreneurial pace with enterprise-grade credibility. Skills & Experience Strong Product Owner/Product Builder background with practical, hands-on delivery experience. Proven ability to transform ambiguous requirements into working tools rapidly. Deep familiarity with Microsoft/Azure ecosystem , Copilot and Claude usage in prototyping. Understanding of integration patterns across CRM, messaging, and operational systems. Strong business understanding and ability to challenge scope constructively. Fluent French and available to work on-site in Paris with business teams. Entrepreneurial mindset with corporate robustness—able to navigate governance while driving fast execution. Experience in data, dashboards, and simple operational applications.
Freelance

Mission freelance
Expert OPS N3 – Chaîne de liaison / RUN MCO

Codezys
Publiée le
CentOS
Docker
Docker swarm

12 mois
Paris, France
Contexte de la mission Dans le cadre de la transformation de son système d’information et du renforcement de ses capacités opérationnelles, une organisation de grande envergure souhaite renforcer ses équipes de production IT. La direction responsable des infrastructures, de la data et des opérations a pour mission de : Assurer la performance et la continuité du système d’information (SI) Industrialiser les opérations et améliorer l’efficacité du RUN Renforcer la sécurité opérationnelle Développer l’automatisation et les pratiques DevOps Au sein de cette organisation, une entité dédiée à la supervision et à la production IT supervise les opérations, la gestion des incidents, la performance ainsi que les outils de production. Elle recherche actuellement un Expert OPS N3 pour intervenir sur des environnements critiques. La prestation consiste à fournir une expertise de niveau N3 sur une chaîne de liaison critique, tout en contribuant à l’industrialisation des opérations et à l’automatisation des processus. Objectifs et livrables 1. Expertise RUN & MCO Maintenir en conditions opérationnelles des plateformes critiques Diagnostiquer et résoudre des incidents complexes Réaliser des analyses de causes racines Contribuer à la fiabilisation du SI et à la réduction de la dette technique 2. Automatisation & industrialisation Concevoir et maintenir des chaînes d’industrialisation Automatiser les déploiements applicatifs et les opérations RUN Mettre en œuvre des automatisations via Ansible / AWX Développer des scripts en Bash / Python 3. Gestion des opérations sensibles Assurer les mises à jour (certificats, composants techniques) Intervenir en production avec des contraintes de haute disponibilité Piloter des déploiements progressifs et sécurisés 4. Supervision & contrôle Mettre en place des contrôles automatisés Suivre la répartition de charge et l’état des services Produire des reportings automatisés (HTML, graphiques, alertes) 5. Capitalisation & documentation Rédiger des procédures d’exploitation Documenter les processus automatisés Assurer le transfert de compétences aux équipes internes Livrables attendus SCRIPTS et chaînes d’automatisation Procédures d’exploitation N3 Rapports de supervision et indicateurs Documentation technique complète Contributions à l’amélioration continue du RUN
Freelance

Mission freelance
AWS Platform Engineer

Codezys
Publiée le
AWS CloudFormation
Github
Kubernetes

3 mois
400-450 €
Paris, France
Dans le cadre de cet appel d'offres, nous vous proposons une description précise des rôles et responsabilités attendus pour le poste au sein de notre squad Data and Analytics Platform . Cette équipe est dédiée à la gestion et au développement de notre infrastructure data, en assurant la conformité, la sécurité et l'efficacité des solutions déployées. Rôles et responsabilités : Développement, mise à jour et maintenance du code infrastructure : Vous serez en charge de concevoir, mettre à jour et maintenir le code Terraform nécessaire pour nos environnements Azure et/ou AWS, en veillant au respect strict des règles de sécurité internes de TotalEnergies ainsi que des meilleures pratiques du secteur. Enrichissement de la documentation : Vous assurerez la mise à jour régulière de la documentation technique à destination des utilisateurs, afin de garantir une compréhension claire des outils et des processus mis en place. Conception et maintenance de chaînes de déploiement automatisé (CI/CD) : Vous participerez à la conception, à la mise en œuvre et à la maintenance des pipelines CI/CD automatisés, favorisant une livraison rapide et fiable des solutions data. Profil recherché : De formation Bac+5 en informatique ou diplôme équivalent. Vous êtes sensibilisé(e) aux principes de gouvernance, de sécurité et de réglementation relatives aux données et à leur exploitation. Ce poste requiert une expertise technique approfondie, une capacité à travailler en équipe sur des projets complexes, ainsi qu'une attitude proactive pour garantir la conformité et la performance des solutions déployées.
Freelance

Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02

Almatek
Publiée le
API

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
CDD
CDI
Freelance

Offre d'emploi
DATA  Engineer GCP 2

KEONI CONSULTING
Publiée le
Architecture
Python
SQL

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
CDI

Offre d'emploi
Développeur Full-Stack C# Finance (FH)

ASTRELYA
Publiée le
.NET CORE
API REST
AWS Cloud

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Développeur Fullstack C# finance vous interviendrez dans un éco système banque sur des sujets critiques liés à la gestion et à la qualité des données produit. Vous participerez à la conception, au développement et à l’évolution d’extensions et d’APIs essentielles au fonctionnement du SI. Concrètement vous allez : La conception et développement de nouvelles fonctionnalités. La contribution au développement Frontend (React/TypeScript) et Backend (.NET Core/C#). La participation aux activités DevOps (CI/CD, déploiement sur Kubernetes, monitoring via Elastic/Kibana). Support technique et maintien en conditions opérationnelles des applications et APIs. Votre futur environnement technique : Back-end : .NET Core/C# Front-end : React/TypeScript APIs : REST Cloud : Azure et/ou AWS
CDI

Offre d'emploi
Expert Sécurité Infra transverse (H/F) - CDI

GROUPE ARTEMYS
Publiée le

75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Artemys Paris , située dans le 10ᵉ arrondissement, est une entité spécialisée en infrastructures systèmes. Forte de 36 ans d’expertise , elle accompagne les entreprises, principalement implantées en Ile-de-France , dans leur transformation digitale. C’est au sein de cette entité, la plus ancienne du groupe, que l’aventure a débuté. Au fil des années, Artemys a su fidéliser une clientèle exigeante de Grands Comptes, certains clients accompagnant l’entreprise depuis sa création, dans des secteurs variés. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé des Infrastructures, Cloud et Modern Workplace. Votre mission (si vous l’acceptez) : Dans ce cadre, la Prestation consiste à contribuer à/au(x) : Projets de transfo / intégration, et Assurer l'amélioration de la sécurité autour des infrastructures AD, la MCO et l’évolution des infrastructures Identité/AD. Gestion du Backlog (Tickets INC / des REQ / Change / etc) Assistance aux entités N2. Remontées des points hebdomadaire, synthèse des actions en cours. Le terrain de jeu ? Azure et ses liens transverses avec les autres solutions\produits MS Powershell, capacité de maintient, de transformation mais également création des scripts Les serveurs Windows en générale (AD \ DNS \ DHCP \ …) La gestion des certificats (PKI) Classification des documents (AIP) Et de manière générale, tout ce qui est en liaison, de prêt, comme de loin, avec la messagerie. Le profil que nous recherchons : Vous avez 7 ans d’expérience minimum dans un environnement challengeant Vous avez une expérience auprès de clients grands comptes Vous avez un bon niveau d’anglais à l’oral et à l’écrit Vous faites preuve de rigueur, d’agilité et de proactivité, et disposez d’une excellente aisance rédactionnelle Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 50000 - 60000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Python Software Engineer Senior

Aneo
Publiée le
AWS Cloud
Python
Ray

7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

428 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous