Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Engineer confirmé (3 à 7 ans d’expérience)
Dans le cadre d’un programme de transformation data au sein d’un acteur majeur du secteur de la distribution, nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer les équipes d’une plateforme Data structurée autour d’une architecture « data-centric ». Cette plateforme vise à décloisonner les silos d’information et à fournir des données en temps réel via API à l’ensemble de l’écosystème métier et SI, dans une logique de convergence entre décisionnel et opérationnel. Vos responsabilités Intégré(e) à l’équipe data, vous serez chargé(e) de concevoir, développer et maintenir des pipelines de traitement de données à grande échelle, en environnement cloud. Vous interviendrez à la croisée des enjeux techniques et métiers, dans un environnement résolument agile et orienté performance. Missions principales développer et maintenir des flux de données batch et temps réel (BigQuery, BigTable, Apache Kafka, Apache Spark) concevoir des pipelines évolutifs et robustes en lien étroit avec les équipes techniques optimiser les processus d’acquisition, de transformation et de stockage des données assurer la haute disponibilité et les performances en production dans une démarche DevOps contribuer à la définition de l’architecture microservices et à l’amélioration continue rédiger et maintenir les tests unitaires et d’intégration produire des livrables de qualité et assurer un reporting clair et régulier proposer des pistes d’amélioration (refactoring, simplification, industrialisation) Compétences techniques requises langages : très bonne maîtrise de Java ; la connaissance de Scala est un atout apprécié, mais non bloquant traitement de flux et Big Data : bonne expérience avec Apache Kafka et Apache Spark cloud : expérience sur GCP (BigQuery, Dataproc, Kubernetes...) ou environnement cloud équivalent CI/CD : pratique de Git et des outils d’intégration/déploiement continus (GitLab CI/CD ou similaire) architecture & DevOps : bonne culture des microservices et des pratiques DevOps qualité logicielle : rigueur dans l’écriture de tests et dans le maintien de la qualité du code Soft skills attendus esprit d’équipe et capacité à collaborer dans un environnement distribué communication fluide, écrite comme orale sens de l’analyse et capacité à challenger l’existant avec bienveillance autonomie et proactivité dans la résolution de problèmes

Offre d'emploi
Data Engineer SQL (T-SQL) – Anglais
Dans le cadre d’un projet stratégique chez l’un de nos clients Grand Compte du secteur interbancaire , nous recherchons un(e) Data Engineer confirmé(e) maîtrisant SQL Server (T-SQL) et ayant un bon niveau d’ anglais professionnel pour intervenir sur la migration et l’optimisation d’un outil de pilotage . Contexte de la mission Vous intégrerez l’équipe Data - Data Engineering , en charge du projet , un outil de pilotage de la trajectoire . Missions principales : Migrer l’application de la plateforme Hadoop vers SQL Server 2019 : Conception du modèle de données Reprise des processus d’ingestion de données Migration des logiques de transformation et de calcul Mise en place de l’ ordonnancement des traitements (Ctrl-M) Optimisation avancée des traitements T-SQL Réaliser les tests unitaires et contribuer aux recettes fonctionnelles Participer aux tâches de support et de maintenance corrective Contribuer à la démarche Agile (Scrum / Kanban) : Daily, Planning Poker, Rétrospectives (via Jira ) Rédiger la documentation technique sur Confluence Participer, si besoin, aux astreintes techniques
Mission freelance
Data Engineer Dataiku / Python / Spark / AWS
Dans le cadre d’un projet d’industrialisation des pipelines de données, notre client recherche un Data Engineer confirmé Python / Spark / Dataiku pour renforcer une équipe data déjà en place. L’objectif principal est de structurer un socle technique robuste, améliorer la qualité des traitements et fiabiliser les processus de mise en production. Vous serez amené à travailler sur des sujets de tests automatisés, de monitoring de pipelines, de performance, et de déploiement continu. Le rôle est transverse : il implique à la fois des compétences techniques solides et une capacité à faire évoluer les pratiques de l’équipe.

Mission freelance
Data Engineer Senior IA Générative & LLM – Python | Banque | Direction Financière
Nous recherchons un Data Engineer confirmé (8–10 ans d’expérience), doté d’une forte appétence pour la Data Science et l’ IA Générative , pour intervenir dans une équipe transverse dédiée à l’innovation et au prototypage rapide de solutions data. Vous interviendrez sur un programme stratégique en lien avec les équipes de la Direction Financière afin de concevoir et implémenter des solutions d'automatisation et d'analyse avancée autour de cas d’usage métiers. Vous serez amené à travailler au plus proche du métier (interlocuteurs financiers), de l’équipe innovation, ainsi que des Data Scientists. LES MISSIONS : Traitement de données non structurées (PDF, Word, PowerPoint, etc.) Développement Python pour l’ extraction, transformation et génération de documents Implémentation de modèles d’ IA Générative (LLM, prompt engineering, RAG) Collaboration avec les équipes Data Science sur les modèles et les outils à déployer Participation à la mise en place de solutions industrialisables (CI/CD)

Offre d'emploi
Data Engineer GCP (H/F)
Contexte de la mission : Nous recherchons un(e) Data Engineer confirmé(e) pour intégrer une équipe agile dédiée à la mise en place et à l’industrialisation de pipelines de données sur la plateforme GCP. Vous interviendrez sur des projets stratégiques autour de la valorisation des données métiers (finance, risque, conformité, etc.). Vos missions : Conception, développement et optimisation de pipelines de données scalables sur Google Cloud Platform (GCP) Intégration et transformation des données issues de diverses sources (BigQuery, Pub/Sub, Cloud Storage, etc.) Utilisation de Apache Spark pour le traitement de gros volumes de données Orchestration des workflows avec Apache Airflow (Cloud Composer) Collaboration avec les Data Analysts, Data Scientists et les équipes métiers pour répondre aux besoins data Mise en place de bonnes pratiques de développement (CI/CD, tests, monitoring, documentation) Participation à l’évolution de la plateforme data et contribution à l’amélioration continue des process Compétences techniques attendues : Langage : Python (maîtrise indispensable) Traitement de données : Apache Spark (PySpark) Orchestration : Airflow (Cloud Composer) Cloud : GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub...) Outils : Git, Docker, Terraform (atout), CI/CD (GitLab CI, Jenkins...) Méthodologie : Agile/Scrum, DevOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.