Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark à Paris

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Mission freelance
Data Engineer / Développeur API H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer / Développeur API H/F à Paris, France. Les missions attendues par le Data Engineer / Développeur API H/F : L'objectif de la mission est d'assurer le rôle de Data Engineer et de développeur API au sein de la squad, avec les responsabilités suivantes : - Gestion de la production - Gestion de la dette technique - Revue de l'architecture actuelle et proposition d'évolutions - Développements liés aux projets La mission pourra évoluer vers d'autres squads Data en fonction des besoins.

Mission freelance
Administrateur Technique plateforme Cloudera
En quelques mots Cherry Pick est à la recherche d'un "Administrateur Technique plateforme Cloudera" pour un client dans le secteur des telecoms Description 🎯 Contexte L’entité Data & AI (230 experts) accompagne Orange Business dans sa transformation autour de la donnée et de l’intelligence artificielle. L’équipe Platform conçoit et maintient les composants techniques qui permettent de démocratiser l’usage de la Data & de l’IA pour les salariés et clients. Au sein de cette équipe, la mission s’inscrit dans le cadre de l’Enterprise Data Hub (EDH), plateforme Big Data B2B d’Orange Business : +180 sources de données intégrées +700 To de données hébergées +100 projets Data supportés Migration et évolution vers le Cloud Azure en cours 🛠️ Missions principales En tant qu’Administrateur Technique Big Data, vous intégrerez l’équipe en charge de l’exploitation et de l’évolution de la plateforme : RUN & Support : gestion opérationnelle de la plateforme Cloudera et des composants Big Data. Déploiement : participation aux déploiements de nouvelles plateformes et environnements. Monitoring & Optimisation : mise en place et suivi des outils de monitoring, tuning des performances. Automatisation : développement de scripts et d’outils pour uniformiser et industrialiser les processus. Documentation & Knowledge sharing : rédaction et mise à jour de la documentation technique. Collaboration internationale : échanges avec des équipes réparties sur plusieurs continents (anglais professionnel).

Offre d'emploi
Data engineer GCP / Hadoop - DataOps
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

Mission freelance
Data engineer
Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.

Offre d'emploi
TECH LEAD BIG DATA
Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

Offre d'emploi
Dev / Data Engineer orienté DevOps
L'objectif de la mission est de renforcer une équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein d'une Squad : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets La mission principale de la prestation aura pour but de : traiter nos obsolescences de Framework (ex : springboot , spark2 ) moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : migration depuis tfs vers jenkins création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )

Mission freelance
Développeur / Data Engineer / DevOPS H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur / Data Engineer / DevOPS H/F à Paris, France. Contexte : Les missions attendues par le Développeur / Data Engineer / DevOPS H/F : L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ou.net )
Offre d'emploi
Tech Lead / Senior Data Engineer Python Spark AWS
Je recherche un profil senior Data Engineer avec une évolution rapide vers un poste de Tech Lead. Points clés : • Solides connaissances et pratique en Python (design, tests, processus de développement, etc.) • Data Engineering : architecture big data / modélisation / optimisation / environnement distribué • Connaissance du cloud AWS ; un niveau intermédiaire minimum est requis, avec une expérience pratique • Bon esprit d'équipe et capacité d'adaptation • Bonnes compétences en communication en anglais L'objectif est de développer une plateforme basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans les différents pays où le client opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant d'accéder à des vues standardisées et transversales de ces indicateurs. Outre ses responsabilités techniques, le data engineer veillera au respect des directives du groupe concernant l'utilisation du cadre interne et l'architecture. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des solutions communes pour la plateforme. Le rôle du data engineer senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : • Ingestion des données • Traitement et normalisation des données. • Distribution des données aux différentes parties prenantes. • Construire et améliorer le cadre commun, notamment en matière de surveillance, de CI/CD, de tests, de performances, de résilience, de pratiques de développement et de qualité du code.
Offre d'emploi
Techlead Big Data CDI
Dans le cadre d’un programme stratégique autour de la valorisation de la donnée client , nous recherchons un Tech Lead Data / Big Data confirmé pour accompagner la mise en place et l’évolution d’une Customer Data Platform (CDP) . Vous serez le référent technique au sein de l’équipe projet et jouerez un rôle clé dans l’ encadrement des développeurs , la structuration des solutions techniques et la qualité des livrables . 6 à 9 ans d’expérience minimum dans la Data / Big Data Expérience en tant que Tech Lead ou Lead Developer Data sur des projets complexes Capacité à challenger techniquement les choix et à proposer des solutions pragmatiques Autonomie, rigueur, proactivité et aisance dans les environnements agiles Bonnes qualités de communication, aussi bien avec les équipes techniques que métiers

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Mission freelance
Business Analyst Front Office – System Integration (Infor M3 obligatoire)
Contexte Au sein de la DSI France, tu rejoins le domaine Commerce Digital , en charge de la cohérence fonctionnelle entre les systèmes locaux (ERP Infor M3) et les plateformes digitales du groupe (E-commerce, CRM, notamment Spark). L’objectif : garantir des échanges de données fiables et performants entre les environnements legacy et les solutions digitales du groupe, dans un contexte de forte transformation. Rôle et responsabilités Ton rôle clé : assurer la conception fonctionnelle et le pilotage des intégrations entre Infor M3 et les plateformes digitales. BUILD Analyser les besoins exprimés par les Product Owners et Proxy PO . Concevoir les interfaces de synchronisation de données entre M3 et les solutions digitales (E-commerce, CRM Spark). Rédiger les spécifications fonctionnelles d’intégration (mappings, contrats d’API, schémas, règles de transformation). Participer à la co-conception technique avec la Digital Factory et les architectes Spark. Suivre et valider les livrables de l’équipe d’intégration France. Contribuer à la préparation et exécution des tests d’intégration et UAT . Valider les recettes et accompagner les mises en production . RUN Assurer le transfert de connaissances vers la TMA. Spécifier et valider les correctifs ou évolutions RUN. Participer au support applicatif niveau 3 sur les flux d’intégration. Positionnement organisationnel Hiérarchique : Responsable du domaine IT Commerce Digital. Fonctionnel : collaboration étroite avec les Product Owners , Feature Teams , Architectes Spark , et équipes d’intégration France . Compétences requises Indispensables (non négociables) Expertise confirmée sur Infor M3 (modules ventes, clients, articles, commandes, stocks…). Expérience significative en conception de flux d’intégration entre M3 et des systèmes externes (E-commerce, CRM, data hub…). Maîtrise du SQL et bonne compréhension de la modélisation de données M3. Connaissance des patterns d’intégration (API REST/SOAP, events, file-based, batchs). Familiarité avec des plateformes d’intégration (iPaaS, ESB : Boomi, MuleSoft, Talend, Azure Integration Services, etc.). Atouts complémentaires Connaissance des environnements CRM ou E-commerce (Spark, Salesforce, Magento, Mirakl…) . Expérience des méthodologies Agile : Scrum, SAFe . Outils : Jira, Confluence, Postman, SQL Developer, GitLab, Jenkins… . Anglais professionnel (collaboration avec équipes internationales). Soft skills Rigueur, sens du détail, autonomie. Solide capacité d’analyse et de synthèse. Excellent relationnel, communication claire et structurée. Esprit d’équipe et fiabilité dans les engagements. Profil recherché 3 à 5 ans minimum d’expérience sur Infor M3 . 6 à 10 ans d’expérience globale en Business Analysis / intégration applicative / projets digitaux . Capable de construire, challenger et documenter des flux complexes dans un environnement multi-SI.
Mission freelance
Architecte Applicatif
Métier : Architecte applicatif Compétences et spécialités : Architecture technique, Sécurité, Méthode Technologies : Linux, Spark, Keycloak, GIT, Docker, Bash, Hadoop, Kubernetes Secteur d'activité : Administration Publique Date de début souhaitée : 13/10/2025 Type de mission : Mission longue, assistance technique facturée au taux journalier EXP : 6 ans et plus Organisation du temps de travail : 70% : Études & réalisations techniques 20% : Maintenance en conditions opérationnelles (MCO) / suivi opérationnel 10% : Veille technologique et fonctionnelle Lieu : Paris Résumé de la prestation : Au sein du département Innovation et Données, intégré à une équipe de 10 architectes (dont 3 dédiés à l’infrastructure), vous serez référent technique applicatif. Encadré par le Directeur du domaine, votre rôle est d’accompagner les équipes dans la conception et l’intégration d’applications tout en garantissant le respect des normes et standards. Conseiller et accompagner les porteurs de besoins, proposer des designs applicatifs ou faire évoluer des solutions existantes Concevoir et intégrer des applications dans l’infrastructure (Docker, Kubernetes, Spark) Assurer la conformité aux normes d’architecture, sécurité et bonnes pratiques Fournir un support technique pour l’intégration et la maintenance Rédiger la documentation technique et transmettre les connaissances Former les équipes N1/N2 à la maintenance des outils Suivre les projets, identifier les risques et remonter les alertes Contribuer à la dynamique de l’équipe et proposer des améliorations, notamment en sécurité Les activités se répartissent principalement entre études techniques (70%), maintien opérationnel (20%) et veille (10%).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Redressement massif pour les SASU à l’IR
- Trouver Ses Premiers Clients En Free-lance
- Recherche un futur associé pour un projet e-book avancé qui me tient à coeur
- Freelances : que pensez-vous d’un agent IA qui décroche des missions et gère votre quotidien ?
- registre des assemblée à jours
- Remboursements frais de déplacement mission freelance