Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark à Paris

Votre recherche renvoie 48 résultats.
Freelance
CDI

Offre d'emploi
Prestation de Data engineering Senior

Publiée le
BigQuery
Python
Terraform

3 ans
40k-45k €
400-700 €
Paris, France
Télétravail partiel
Détails pratiques Poste : Prestation de data engineering Senior Expérience requise : 5 ans et + TJM : 700 € Localisation : Paris 15 / 50% télétravail Date limite de réponse : 25/11/2025 Date de début de mission : janvier 2026 Durée de la mission : 3 ans Description du client Notre client est une entreprise majeure dans le domaine des Médias. Il mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Mission La mission se déroulera au sein de l’équipe Bronze, en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. La prestation attendue consiste à participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe, construire et maintenir de pipelines data robustes et scalables, accompagner les membres de l’équipe dans l’exploitation et le requêtage des données, organiser et structurer le stockage des données, et bien plus encore. Compétences requises Au moins 3 ans d’expérience en Data engineering dans un environnement data Compétences solides en data : structures de données, code, architecture Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant delta lake Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance
CDI

Offre d'emploi
DATA ENGINEER DATABRICKS

Publiée le
Databricks
Python
Unity

6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je recherche pour un de mes client dans le monde le l'assurance un Data Engineer Databricks : Les principales missions sont les suivantes : • Faire évoluer les pipelines de données existantes dans l’environnement Databricks, en s’appuyant sur Unity Catalog pour assurer la traçabilité, la gouvernance et la sécurité des données • Intégrer et structurer les données de gestion interne dans la plateforme, en assurant leur cohérence avec les besoins métiers (analyse d’impact). • Réaliser des analyses exploratoires et des contrôles de cohérence, afin d’identifier les anomalies, de proposer une évolution de la brique existante et de fiabiliser les jeux de données. • Optimiser les traitements du lot1 et les performances, tout en assurant une documentation technique rigoureuse et une collaboration étroite avec les équipes MOA et métiers. Niveau d’expérience • Expérience opérationnelle (≥ 7 ans) en data engineering ou data analyse • Expérience confirmée en environnement cloud et CI/CD Compétences clés • Conception et optimisation de pipelines de données complexes dans Databricks • Intégration de données métiers • Mise en œuvre de contrôles qualité, sécurité et anonymisation • Analyse exploratoire, production d’indicateurs et visualisations • Documentation technique, versioning et collaboration transverse • Mise en place de processus CI/CD pour les workflows data • Compétence appréciée : Connaissance des bases client, notamment dans le cadre de l’exploitation de données du secteur assurance Outils et pratiques maîtrisés • Databricks, Spark (PySpark) • Unity Catalog, SQL avancé • Outils de visualisation : Power BI • Jenkins pour l’automatisation des déploiements • Pratiques CI/CD : tests automatisés, intégration continue, déploiement de pipelines • Git / GitHub / GitLab • Cloud : Azure (préféré)
Freelance

Mission freelance
AWS engineer / Architect

Publiée le
AWS Cloud
AWS Glue

12 mois
550-870 €
Paris, France
Télétravail partiel
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Freelance
CDI

Offre d'emploi
Architecte Data / Cloud

Publiée le
Apache Airflow
AWS Cloud
Azure

2 ans
Paris, France
Télétravail partiel
Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.
Freelance

Mission freelance
Business Analyst Front Office – System Integration (Infor M3 obligatoire)

Publiée le
JIRA

6 mois
400-610 €
Paris, France
Télétravail partiel
Contexte Au sein de la DSI France, tu rejoins le domaine Commerce Digital , en charge de la cohérence fonctionnelle entre les systèmes locaux (ERP Infor M3) et les plateformes digitales du groupe (E-commerce, CRM, notamment Spark). L’objectif : garantir des échanges de données fiables et performants entre les environnements legacy et les solutions digitales du groupe, dans un contexte de forte transformation. Rôle et responsabilités Ton rôle clé : assurer la conception fonctionnelle et le pilotage des intégrations entre Infor M3 et les plateformes digitales. BUILD Analyser les besoins exprimés par les Product Owners et Proxy PO . Concevoir les interfaces de synchronisation de données entre M3 et les solutions digitales (E-commerce, CRM Spark). Rédiger les spécifications fonctionnelles d’intégration (mappings, contrats d’API, schémas, règles de transformation). Participer à la co-conception technique avec la Digital Factory et les architectes Spark. Suivre et valider les livrables de l’équipe d’intégration France. Contribuer à la préparation et exécution des tests d’intégration et UAT . Valider les recettes et accompagner les mises en production . RUN Assurer le transfert de connaissances vers la TMA. Spécifier et valider les correctifs ou évolutions RUN. Participer au support applicatif niveau 3 sur les flux d’intégration. Positionnement organisationnel Hiérarchique : Responsable du domaine IT Commerce Digital. Fonctionnel : collaboration étroite avec les Product Owners , Feature Teams , Architectes Spark , et équipes d’intégration France . Compétences requises Indispensables (non négociables) Expertise confirmée sur Infor M3 (modules ventes, clients, articles, commandes, stocks…). Expérience significative en conception de flux d’intégration entre M3 et des systèmes externes (E-commerce, CRM, data hub…). Maîtrise du SQL et bonne compréhension de la modélisation de données M3. Connaissance des patterns d’intégration (API REST/SOAP, events, file-based, batchs). Familiarité avec des plateformes d’intégration (iPaaS, ESB : Boomi, MuleSoft, Talend, Azure Integration Services, etc.). Atouts complémentaires Connaissance des environnements CRM ou E-commerce (Spark, Salesforce, Magento, Mirakl…) . Expérience des méthodologies Agile : Scrum, SAFe . Outils : Jira, Confluence, Postman, SQL Developer, GitLab, Jenkins… . Anglais professionnel (collaboration avec équipes internationales). Soft skills Rigueur, sens du détail, autonomie. Solide capacité d’analyse et de synthèse. Excellent relationnel, communication claire et structurée. Esprit d’équipe et fiabilité dans les engagements. Profil recherché 3 à 5 ans minimum d’expérience sur Infor M3 . 6 à 10 ans d’expérience globale en Business Analysis / intégration applicative / projets digitaux . Capable de construire, challenger et documenter des flux complexes dans un environnement multi-SI.
Freelance

Mission freelance
Ingénieur Production Data

Publiée le
Agile Scrum
AWS Cloud
Data analysis

12 mois
400-550 €
Paris, France
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Freelance

Mission freelance
Data engineering GCP

Publiée le
Gitlab

18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Au sein de l’équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
Data Engineer - GCP

Publiée le
Google Cloud Platform (GCP)

6 mois
500-650 €
Paris, France
Télétravail 100%
Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.
Freelance

Mission freelance
Business Analyst Front Office – System Integration

Publiée le
JIRA

6 mois
400-550 €
Paris, France
Le Business Analyst Front Office – System Integration est le référent des processus fonctionnels de l’équipe Digitale et responsable de leur implémentation dans les outils et flux digitaux. Il prend en charge la conception fonctionnelle des interfaces de synchronisation des données entre les systèmes locaux et les plateformes digitales E-commerce & CRM (notamment Spark), gérées par la Digital Factory. Il collabore directement avec les Product Owners France, les Feature Teams du groupe ainsi qu’avec les développeurs de l’équipe d’intégration France. Il s’assure, avec les architectes Spark, de la cohérence des solutions proposées avec le besoin métier, dans le respect des délais et des standards de qualité. Activités principalesBUILD Analyse du besoin exprimé par les Product Owners et Proxy Product Owners. Co-conception avec la Digital Factory des évolutions liées aux échanges de données entre systèmes Legacy et plateformes du groupe. Suivi et validation des livrables de l’équipe BUILD France. Contribution à la préparation et à l’exécution des tests d’intégration et des UAT. Participation à la conception fonctionnelle des projets transverses de la DSI France. Validation des recettes et des mises en production. RUN Transfert de connaissances vers les équipes de TMA. Spécification et validation fonctionnelle des développements réalisés par les équipes de TMA. Contribution au support applicatif de niveau 3. Positionnement dans l’organisation Hiérarchique : Responsable du domaine IT Commerce Digital Fonctionnel : Collaboration avec les Product Owners, Feature Teams, Architectes Spark et équipes de développement/intégration Compétences requisesConnaissances techniques 3 à 5 ans d’expérience dans des projets d’intégration de plateformes digitales (E-commerce & CRM). Bonne connaissance d’un ERP, idéalement Infor M3. Maîtrise du langage SQL et des concepts de modélisation. Connaissance des méthodologies Agile (Scrum, Safe). Expérience avec des outils de gestion de projet (JIRA, Confluence). Connaissance des Patterns (API, events & file based) et des plateformes d’intégration type iPaaS. Compétences analytiques Capacité à analyser des processus métier et proposer des solutions adaptées. Analyse de données et élaboration de conclusions pertinentes. Excellente capacité de résolution de problèmes. Compétences communicationnelles Capacité à communiquer clairement avec des interlocuteurs variés. Rédaction de documents clairs et structurés. Maîtrise de l’anglais à un niveau professionnel. Compétences comportementales Travail en équipe. Esprit d’analyse, de synthèse et de résolution de problèmes. Adaptabilité et flexibilité. Rigueur et respect des procédures. Qualités de communication orale.
Freelance
CDI

Offre d'emploi
Consultant Search Optimization / Bloomreach

Publiée le
E-commerce
SEA (Search Engine Advertising)
Search Engine Marketing (SEM)

2 ans
40k-80k €
240-740 €
Paris, France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Consultant Search Optimization ou un spécialiste Bloomreach Tâches : Coordonner la mise en œuvre des actions d’optimisation de recherche définies au niveau global. Accompagner les parties prenantes dans leurs initiatives locales de searchandizing et diffuser les bonnes pratiques au niveau régional (ex. : améliorations spécifiques à un assortiment ou à une cible). Faciliter l’intégration des fonctionnalités Bloomreach et Spark, incluant le suivi des pixels. Veiller au respect des bonnes pratiques issues du Bloomreach Playbook . Participer aux projets pilotes et partager des retours régionaux pour des déploiements globaux à grande échelle. Définir les priorités et actions hebdomadaires pour les parties prenantes afin d’assurer l’alignement global. Suivre et analyser les KPI globaux et locaux , et identifier les axes d’amélioration. Évaluer l’efficacité des actions hebdomadaires, des optimisations de recherche et des intégrations de fonctionnalités au niveau régional.
Freelance

Mission freelance
Chef de projet IA

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet Spécialités technologiques : AI, Machine learning, RGPD MISSIONS En tant que Chef de Projets, vos principales missions sont : - Assistance à la définition du besoin métier - Organiser et piloter un portefeuille de projets, dont les interlocuteurs sont soient internes, soient des prestataires externes - Garant du respect du planning général, de l’étude d’opportunité à la mise en œuvre, en passant par le Cadrage Détaillé - Garant des fonctionnalités mises en œuvre, permettant de répondre complètement aux besoins exprimés par les directions - Garant du respect du budget : Suivi mensuel des consommés / du reste à faire - Garant du respect des procédures d’assurance qualité (instances, documentation, …) - Etre le référent auprès des différents interlocuteurs (architectes, infra, Techlead. . .) - Préparer, animer, réaliser le compte rendu de l’ensemble des instances projet (Comité de projet / Ateliers / . . . ) - Être autonome dans la prise en charge des projets, de leur lancement à leur mise en production. - Être force de proposition sur l’amélioration des processus internes du service. Expertise souhaitée - Expérience significative (3+) en conduite de projet IT en milieu bancaire - Leadership d’influence : bon relationnel, rigueur, sens de l'organisation, autonomie, avec capacité à faire avancer des équipes sans lien hiérarchique - Excellente capacité à comprendre et maîtriser les besoins métiers et les impératifs IT - Esprit d'initiative et capacité d'anticipation - Pensée systémique et esprit facilitateur : capacité à anticiper les dépendances et à remonter rapidement les risques, proposer des solutions en partenariat avec l’ensemble des interlocuteurs. Savoir poser les bonnes questions et débloquer les frictions. - Capacités à communiquer avec aisance (écrit et oral) et à faire passer les messages (à l’écrit comme à l’oral) de manière ferme et diplomatique. - Excellente culture de l’IA et des frameworks back / front associés : - Langage de programmation : Python, en DevOps et en MLOps. - Environnement IA AWS : Sagemaker, bedrock, agentcore (…). - Algorithmes de Machine Learning, DL et d’AI Générative, cycle de vie des modèles - Technologies Front-End (Figma, Angular, React etc.) et technologies Back-end (Java SprintBoot, NodeJS, Python etc.). - Bases de données (SQL, NoSQL, graphiques) et des frameworks distribués (Spark, pySpark, SparkSQL, etc.). - Pipelines d'intégration continue/ livraison continue (CI/CD). - Principes de containérisation (Docker, Kubernates) - Connaissance règlementaire (RGPD, IA Act, cadre normatif, gouvernance interne…) - Maîtrise complète impérative des outils bureautiques du pack MS Office - Anglais technique opérationnelle
Freelance

Mission freelance
Architecte Applicatif

Publiée le
Kubernetes

18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Architecte applicatif Spécialités technologiques : Infrastructure, SSO Compétences Technologies et Outils GIT Docker Bash Hadoop Kubernetes Linux Spark Keycloak Soft skills Autonomie Force de proposition MISSIONS Au sein du département Innovation et Données, vous rejoindrez une équipe de 10 architectes, dont une sous-équipe de 3 personnes dédiée à l’intégration de l’infrastructure du client. Encadré par le Directeur du domaine, vous interviendrez comme référent technique applicatif, en appui des équipes architecture et SOC. L’objectif : accompagner les équipes et les porteurs de projets dans la conception et l’intégration d’applications au sein de la plateforme, tout en garantissant le respect des normes et standards en place. - Être le référent technique applicatif auprès de l’équipe architecture. - Accompagner et conseiller les porteurs de besoins pour proposer des designs applicatifs adaptés ou faire évoluer des solutions existantes. - Concevoir et intégrer des applications dans l’infrastructure (Docker, Kubernetes, Spark). - Garantir la conformité aux normes d’architecture, de sécurité et aux bonnes pratiques en vigueur. - Apporter un support technique aux équipes pour l’intégration et la maintenance (MCO) des produits. - Rédiger la documentation technique et assurer la transmission des connaissances. - Former les équipes N1/N2 à la maintenance et au suivi des outils. - Suivre les projets, identifier les risques et remonter les alertes. - Contribuer à la dynamique de l’équipe et être force de proposition, notamment sur les enjeux sécuritaires. Organisation du temps de travail (indicatif) 70% : études & réalisations techniques 20% : MCO / suivi opérationnel 10% : veille technologique et fonctionnelle Expertise souhaitée Compétences techniques requises - Architecture applicative : expérience confirmée (> 8 ans). - Langages : Python et Bash. - Outils & environnements : Git, Linux (Rocky, Alpine, Ubuntu). - Conteneurisation & orchestration : Docker, Kubernetes (CKS apprécié). - Sécurité & IAM : protocoles SSO (SAML2, OIDC), outils comme Keycloak. - Cloud Native architectures. - Bases de données : SQL / NoSQL, pipelines de traitement (Message Queue, DAG). Compétences bonus : - Environnements : CEPH, Proxmox, SLURM. - Standards santé : FHIR, DICOM, OMOP. - Big Data : Hadoop, Spark, HDFS. - IA : Torch, CUDA, MLOps. - Connaissance des problématiques fonctionnelles dans le secteur santé Profil recherché - Architecte applicatif senior avec un solide background technique. - Capacité à garder une vision métier forte et à accompagner les équipes dans la traduction des besoins en solutions applicatives. - Expérience dans des environnements complexes, nécessitant respect des normes, sécurité et interopérabilité. - Excellentes capacités de communication et de pédagogie (rôle de référent et de formateur). - Force de proposition, autonomie et goût pour l’innovation.
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Azure
DevOps
Microsoft Fabric

6 mois
Paris, France
Télétravail partiel
Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.
Freelance

Mission freelance
Senior Devops

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France
Télétravail partiel
Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …
48 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous