L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 853 résultats.
Mission freelance
Data Engineer Java / Spark
Publiée le
Java
24 mois
250-275 €
Paris, France
Télétravail partiel
Profil : Data Engineer Nombre d'années d'expérience : ~5-8 ans d'expérience avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie Compétences techniques requises : Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL. Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka. Expérience significative en Build et en Run dans des environnements Big Data. Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc. Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA. Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données. Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation. Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance. Connaissance avancée des bases de données relationnelles et non relationnelles. Excellentes compétences de communication pour collaborer efficacement avec les équipes. Leadership technique pour encadrer et orienter les membres de l'équipe. Esprit d'initiative et capacité à résoudre des problèmes techniques complexes. Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence. Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Mission freelance
Data Engineer - Toulouse
Publiée le
Apache Spark
Java
6 mois
400-450 €
Toulouse, Occitanie
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Mission freelance
Data Egineer - IDF
Publiée le
Apache Spark
Java
6 mois
400-450 €
Paris, France
Télétravail partiel
Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Offre d'emploi
Data Engineer Spark
Publiée le
24 mois
40k-45k €
286-450 €
Vannes, Bretagne
Télétravail partiel
Site : Vannes, 3 jours sur site par semaine Date de démarrage : asap Nationalité et langues parlées : français Durée mission : jusqu'au 31/12/2025 Mission : intervention pour le compte du Chapitre Data à Vannes Nb années d'expérience : 5 à 7 ans Profil : Data Engineer confirmé Compétences techniques - Langage : Spark - spark streaming et batch (requis), Kafka (apprécié) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Compétences techniques souhaitées – appréciées BDD Teradata, xDI, SQL Data viz : Microstrategy
Mission freelance
Data Engineer
Publiée le
Apache Hive
Apache Spark
Argo CD
6 mois
550 €
Paris, France
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles. Votre mission Sous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE , en exploitant des sources Big Data et décisionnelles complexes. Environnement Technique & Défis Vous évoluerez dans un écosystème On-Premise (MapR) exigeant : Core : Java 11, Spark, SparkSQL, Hive et Shell. Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux. DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD. Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Mission freelance
Data Engineer GCP / Big Data (H/F)
Publiée le
Google Cloud Platform (GCP)
Java
Spark Streaming
3 mois
Paris, France
Télétravail 100%
En tant que Data Engineer, vous serez responsable de : Conception & Développement (Big Data / Java / Spark) – 40% Développer et optimiser des traitements Big Data en Java et Spark. Créer, maintenir et améliorer des pipelines de données robustes et scalables. Assurer la qualité, la performance et la fiabilité des traitements batch et streaming. Cloud Engineering – GCP (DataProc / Workflows / Cloud Run) – 30% Concevoir et maintenir des solutions data sur GCP. Déployer et orchestrer les traitements via DataProc, Workflows et Cloud Run. Optimiser les coûts, la sécurité et les performances des environnements GCP. Data Warehousing – BigQuery – 15% Modéliser, structurer et optimiser les tables BigQuery. Mettre en place des requêtes performantes et adaptées aux usages analytiques. Assurer la gouvernance et la qualité des données. Systèmes & DevOps – 5% Intervenir sur des environnements Linux. Contribuer au monitoring et à l’amélioration continue des systèmes. Outils complémentaires – 10% Participer à l'infrastructure-as-code via Terraform. Déployer et automatiser via GitHub Actions. Contribuer aux bonnes pratiques CI/CD.
Mission freelance
Data Engineer Senior
Publiée le
Informatica PowerCenter
Java
Oracle
2 ans
500-520 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
🔍 Nous recherchons un Ingénieur Data Senior pour renforcer une équipe en charge de la conception et de l’optimisation de pipelines ETL (Informatica PowerCenter) sur des bases de données massives (20 To+ : Oracle/SybaseIQ). Vous participerez également au développement d’applications Java (Springboot, Maven) et à l’amélioration des processus de release et de performance. 🎯 Vos missions principales ✅ Concevoir et optimiser des pipelines ETL complexes (Informatica PowerCenter). ✅ Développer des applications Java (Springboot, Maven) pour des solutions data robustes. ✅ Collaborer avec les analystes métiers pour traduire les besoins en solutions techniques. ✅ Gérer les releases : Sécuriser les changements, appliquer les bonnes pratiques de codage. ✅ Optimiser les performances : Traitement par lots, planification, automatisation. ✅ Résoudre des problèmes avec une approche pragmatique et proactive. ✅ Travailler en équipe pluriculturelle (environnement anglophone, secteur bancaire/assurance un plus).
Mission freelance
Data Engineer (H/F) - 56
Publiée le
Spark Streaming
SQL
1 an
370-510 €
Vannes, Bretagne
Télétravail partiel
Context Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mission * Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers * Mettre en œuvre les tests unitaires et automatisés * Déployer le produit dans les différents environnements * Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents * Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Offre d'emploi
Développeur Big Data Spark/Scala (F/H)
Publiée le
Agile Scrum
Apache Kafka
Apache Spark
12 mois
40k-55k €
430-600 €
Montreuil, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Big Data Spark/Scala pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Étudier et concevoir techniquement les batchs de traitement de données - Développer en Scala/Spark pour des traitements volumineux - Récupérer, transformer, enrichir et restituer les données - Créer et gérer des batchs de publication Kafka - Participer à la maintenance de la chaîne CI/CD (Jenkins, Gitflow) - Collaborer avec les Business Analysts pour garantir qualité et lisibilité des libellés - Gérer certains sujets de manière autonome : reporting, suivi, coordination
Mission freelance
Data Ingénieur BIG Data
Publiée le
Apache Hive
Apache Spark
Scala
12 mois
400-540 €
Hauts-de-Seine, France
Télétravail partiel
Vous rejoindrez notre équipe et serez en charge de gérer l'alimentation et le stockage des données via le traitement Scala/Spark pour les différents systèmes avals décisionnels, réglementaires et autres. Vos missions consisteront à contribuer: Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK 3.4 Concevoir et développer les traitements applicatifs en collaboration avec les équipes, Rédiger les dossier de conception et de documentations techniques, Concevoir et exécuter les cas de tests unitaires, d'intégration, Faire la revue de code croisée, Contribuer à l'alimentation aux rétrospectives afin de garantir le process d'amélioration continue, Assurer la qualité et le suivi des développements en participant à la correction des problèmes de production,
Offre d'emploi
Data Ingénieur Spark
Publiée le
Apache Spark
PySpark
Spark Streaming
12 mois
35000, Rennes, Bretagne
Télétravail partiel
ans le cadre d’un programme de transformation Data mené au sein d’une grande organisation, une équipe projet pluridisciplinaire travaille à la mise en place d’une nouvelle plateforme Data. Nous recherchons un Data Engineer senior disposant d’une expérience confirmée sur les traitements de données en Spark et Python , capable d’intervenir sur l’ensemble de la chaîne de valeur de la donnée. Responsabilités principales En tant que Data Engineer Senior, vous serez amené à : Concevoir, développer et faire évoluer des pipelines d’ingestion de données en batch et en temps réel Mettre en œuvre des traitements Data fiables, industrialisés et facilement observables Participer à la définition et à la construction d’une architecture Lakehouse moderne Assurer la qualité, la traçabilité et la cohérence des données tout au long de leur cycle de vie Contribuer aux démarches d’ industrialisation et d’automatisation (CI/CD, DataOps) Travailler en étroite collaboration avec les architectes Data, les équipes plateforme, les responsables produit et les métiers Appliquer les principes de sécurité by design et veiller au respect des exigences de conformité Produire la documentation technique et participer au partage de connaissances au sein des équipes
Offre d'emploi
Data Engineer Big Data
Publiée le
Apache Hive
Apache Spark
CI/CD
1 an
40k-45k €
400-560 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Au sein de la direction IT Data Management & BI , vous intégrez l’équipe Big Data & API / Squad Financing & Risk . L’équipe développe et maintient un datalake , utilisé comme plateforme de données par les équipes IT et métiers (finance, risque). 🚀 Missions En tant que Data Engineer , vous intervenez sur le datalake FinLake avec les responsabilités suivantes : Assurer la gestion de la production (suivi des flux, incidents, performance) Réduire et maîtriser la dette technique Analyser l’ architecture existante et proposer des évolutions Réaliser les développements Big Data liés aux projets métiers Participer aux déploiements et à l’industrialisation des traitements 🛠️ Environnement technique Big Data : Spark, PySpark, Scala, Hadoop (on-premise) Data & requêtage : Hive, SQL/HQL, Starburst, Indexima Scripting : Unix / Bash DevOps & industrialisation : Jenkins, CI/CD, XLDeploy, XLRelease Outils projet : Jira
Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)
Publiée le
Big Data
DevOps
Java
3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Offre d'emploi
Développeur Java Full Stack – Expert Camunda
Publiée le
Apache Kafka
Camunda
Microservices
1 an
40k-45k €
320-540 €
Ivry-sur-Seine, Île-de-France
Contexte & objectif Dans le cadre du développement et de l’automatisation de processus métier critiques, nous recherchons un Développeur Java Full Stack confirmé , doté d’une solide expérience en modélisation et automatisation de workflows Camunda . Le consultant interviendra sur la conception technique, la modélisation BPMN, le développement backend ainsi que l’intégration de microservices. 🧩 Missions Modélisation et implémentation des workflows Camunda (BPMN). Conception & développement de services API REST . Développement de microservices Spring Boot. Intégration et utilisation de Kafka . Participation à la rédaction des spécifications techniques. Contribution aux revues de code et bonnes pratiques de développement. 📦 Livrables attendus Conception et livrables de code. Modélisation complète des workflows Camunda. Spécifications techniques. 🛠️ Compétences techniques requises Impératives : Camunda – Confirmé Spring Boot – Confirmé Microservices – Confirmé Kafka – Confirmé
Mission freelance
Senior Data Engineer GCP
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Offre d'emploi
Data Engineer Spark / Scala – Datalake (H/F)
Publiée le
Apache Kafka
Apache Spark
Mongodb
10 jours
Puteaux, Île-de-France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Description : Pour le compte de l’un de nos clients grands compte, nous sommes à la recherche d’un Data Engineer Spark / Scala – Datalake (H/F) Localisation Puteaux Mode de travail multisite (Teams / M365)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Questionnement après plusieurs mois de recherche freelance
- domiciliation et etablissement principal
- Mini-série : Les coulisses du portage salarial (épisode 1/9)
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Votre avis retour à la formation face au marché IT et arrivée de l'IA ?
- LE PLUS GRAND ET PUISSANT GUIDE DE L’AFRIQUE 00229 61 00 96 22
2853 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois