Trouvez votre prochaine offre d’emploi ou de mission freelance PySpark à Paris

Votre recherche renvoie 9 résultats.
Freelance

Mission freelance
Data Engineer / Développeur API H/F

Insitoo Freelances
Publiée le
Apache Spark
Hadoop
PySpark

2 ans
500-600 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer / Développeur API H/F à Paris, France. Les missions attendues par le Data Engineer / Développeur API H/F : L'objectif de la mission est d'assurer le rôle de Data Engineer et de développeur API au sein de la squad, avec les responsabilités suivantes : - Gestion de la production - Gestion de la dette technique - Revue de l'architecture actuelle et proposition d'évolutions - Développements liés aux projets La mission pourra évoluer vers d'autres squads Data en fonction des besoins.

Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Freelance
CDI

Offre d'emploi
Tech Lead / Senior Data Engineer Python Spark AWS

GRADIANT
Publiée le
AWS Cloud
PySpark
Python

3 ans
40k-70k €
400-630 €
Paris, France

Je recherche un profil senior Data Engineer avec une évolution rapide vers un poste de Tech Lead. Points clés : • Solides connaissances et pratique en Python (design, tests, processus de développement, etc.) • Data Engineering : architecture big data / modélisation / optimisation / environnement distribué • Connaissance du cloud AWS ; un niveau intermédiaire minimum est requis, avec une expérience pratique • Bon esprit d'équipe et capacité d'adaptation • Bonnes compétences en communication en anglais L'objectif est de développer une plateforme basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans les différents pays où le client opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant d'accéder à des vues standardisées et transversales de ces indicateurs. Outre ses responsabilités techniques, le data engineer veillera au respect des directives du groupe concernant l'utilisation du cadre interne et l'architecture. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des solutions communes pour la plateforme. Le rôle du data engineer senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : • Ingestion des données • Traitement et normalisation des données. • Distribution des données aux différentes parties prenantes. • Construire et améliorer le cadre commun, notamment en matière de surveillance, de CI/CD, de tests, de performances, de résilience, de pratiques de développement et de qualité du code.

Freelance

Mission freelance
Data engineer Python / Pyspark

K2 Partnering Solutions
Publiée le
PySpark
Python

12 mois
400-450 €
Paris, France

Nous recherchons un Data Engineer freelance pour intervenir sur une mission de longue durée (minimum 12 mois) dans le secteur de l’assurance. Vous rejoindrez une direction data structurée et en pleine croissance, au cœur d’une transformation digitale d’envergure. 🎯 Objectifs et contexte de la mission : En tant que Data Engineer , vous intégrerez une équipe d’environ 30 personnes (data engineers, tech leads) organisée en feature teams agiles . Vous contribuerez à la construction du socle technique Big Data et à l'industrialisation des projets data portés par les directions métier (client, marketing, produits...). 🔧 Stack technique & compétences requises : Compétences techniques indispensables : Développement en Python , avec une solide maîtrise de Spark / PySpark Bonne connaissance de l’environnement Microsoft Azure (Data Factory, Data Lake, Databricks, etc.) Expérience sur des outils de visualisation type Power BI Connaissances des bases de données relationnelles et NoSQL Compétences complémentaires (un plus) : Outils de delivery : Azure DevOps , Azure Pipelines , GIT , JIRA Connaissance des principes CI/CD , tests automatisés , clean code Connaissance des méthodes agiles : Scrum , Kanban 📍 Informations pratiques : Type de contrat : Mission freelance uniquement Localisation : Paris (modèle hybride possible) Démarrage : ASAP Durée : 12 mois minimum

CDI

Offre d'emploi
Techlead Big Data CDI

REDLAB
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

40k-45k €
Paris, France

Dans le cadre d’un programme stratégique autour de la valorisation de la donnée client , nous recherchons un Tech Lead Data / Big Data confirmé pour accompagner la mise en place et l’évolution d’une Customer Data Platform (CDP) . Vous serez le référent technique au sein de l’équipe projet et jouerez un rôle clé dans l’ encadrement des développeurs , la structuration des solutions techniques et la qualité des livrables . 6 à 9 ans d’expérience minimum dans la Data / Big Data Expérience en tant que Tech Lead ou Lead Developer Data sur des projets complexes Capacité à challenger techniquement les choix et à proposer des solutions pragmatiques Autonomie, rigueur, proactivité et aisance dans les environnements agiles Bonnes qualités de communication, aussi bien avec les équipes techniques que métiers

Freelance

Mission freelance
Data Scientist - Monétique

FF
Publiée le
Data science
Elasticsearch
Kibana

1 an
570-640 €
Paris, France

Bonjour à tous, Je suis à la recherche d’un Data Scientist expérimenté sur des sujets liés à la Monétique. Environnement technique : Full Microsoft Démarrage : ASAP (début septembre) Lieu de la mission : Paris Télétravail / Présentiel : Sur site les 3 premiers mois puis 2 jours de télétravail par semaine le reste de la mission Process entretiens : 2 entretiens en visio Profil recherché : Vous avez fait une école d'ingénieur Plus de 8 ans d'xp comme Data Scientist et/ou Data Engineer Nationalité : Française obligatoire Vous avez travaillé autour de sujets liés au flux bancaires - monétique Vous avez déjà travaillé dans des environnement de données critiques (sensible) Environnement technique : Microsoft, Python, Scala, Kibana, Elsaticsearch, PySpark... A bientôt,

Freelance

Mission freelance
Développeur Big Data

Signe +
Publiée le
.NET
Apache Hive
Apache Spark

3 mois
400-480 €
Paris, France

La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Freelance

Mission freelance
Lead Data Scientist / Chef de Projet Data – Secteur Énergie / Industrie (H/F)

EXteam
Publiée le
Data science
PySpark
Python

3 ans
Paris, France

Nous recherchons pour l’un de nos clients un profil hybride Lead Data Scientist / Chef de Projet Data ayant une solide expérience dans l’intégration d’algorithmes complexes et la gestion de projets data à fort enjeu. Ce rôle est clé dans la coordination des initiatives data et la mise en œuvre de solutions techniques dans un environnement exigeant. Compétences techniques requises : Langages : Python, PySpark Environnement Big Data : Teradata (impératif) Méthodologie DevOps / Industrialisation : CI/CD Bonnes pratiques de versioning, automatisation, déploiement

Freelance
CDI

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
AWS Cloud
Python

210 jours
60k-91k €
560-610 €
Paris, France

Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

9 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous