L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 62 résultats.
Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H
Argain Consulting Innovation
Publiée le
Apache
Apache Hive
Batch
2 ans
40k-45k €
450-500 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. 📍 Localisation Si vous etes localisé à Nantes, vous serez rattaché(e) au site de Nantes avec 2 jours de déplacement par mois requis sur le site de Vannes. Si vous etes localisé(e) à Vannes vous serez rattaché (e) au site de Vannes Mission longue Vos missions : Vous interviendrez sur l’ensemble du cycle de vie des produits Data : Participation à la définition de l’architecture Data , en lien avec les architectes et les équipes projet Conception, développement et optimisation des solutions de collecte et de stockage de données (multi-sources) Mise à disposition des données pour les usages métiers Mise en œuvre de tests unitaires et automatisés Déploiement des solutions sur les différents environnements Suivi du bon fonctionnement en production : support, assistance, gestion des incidents Contribution à l’ amélioration continue des pratiques (qualité du code, performance, fiabilité)
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake
12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Mission freelance
Un Senior Platform Engineer – Elastic & Kubernetes (Observability) à Hérault (34) – Occitanie
Almatek
Publiée le
Elasticsearch
3 mois
400-450 €
Clermont-l'Hérault, Occitanie
. DESCRIPTION DE LA MISSION 2.1. Les fonctions à réaliser ou la description des lots Pour réaliser la mission, vous êtes à même de : - Diriger la livraison de plateforme d’Observabilité pour assurer le succès de notre plateforme auprès des clients - Conception de solutions, développement et intégration de produit et services d’Observabilité, architecture de plateforme et planification de la capacité dans des environnements critiques. - Développement de démonstrations et de preuves de concept qui mettent en évidence la valeur de la plateforme d’Observabilité. - Accompagnement dans la modélisation des données, développement et optimisation des requêtes, réglage et mise à l’échelle des clusters, en mettant l’accent sur la recherche rapide et l’analyse à l’échelle. - Résoudre les problèmes de données les plus complexes de nos clients. - Travailler en étroite collaboration avec les équipes d’exploitation afin d'identifier les améliorations à apporter aux fonctionnalités. - Être un mentor/coach pour vos collègues. 2.2. Compétences 2.2.1. Compétences minimales requises • Expertise du Platform Engineering • Expertise des outils de fabrication, Git, Gitlab, Gitlab CI, Ansible, ArgoCD, HELM • Bonnes connaissances dans le développement Python et de la plateforme Kubernetes • Maitrise de la culture DevOps et des pratiques SRE • Bonnes connaissances système et réseaux • Maitrise de l’anglais professionnel 2.2.2. Qualités humaines - Curieux et force de propositions - Rigueur, sens de la méthode ; - Capacités relationnelles et travail en équipe ; - Disponibilité et réactivité ; - Analyse et résolution d'incidents ; - Sens du service et respect des engagements.
Mission freelance
Architecte Power BI / Data Engineer Senior – Expert Advisory (H/F)
HOXTON PARTNERS
Publiée le
Microsoft Power BI
Powershell
4 jours
Paris, France
Dans le cadre de plusieurs sujets techniques autour de Power BI, nous recherchons un Architecte Power BI / Data Engineer senior pour intervenir sur des problématiques à forte complexité technique. La mission consiste à apporter une expertise de haut niveau sur des sujets avancés tels que l’analyse et la documentation des API Admin V2 Power BI, l’identification des applications ne utilisant pas les fonctionnalités de gestion d’accès (Custom Message), l’expertise sur les capacités Power BI en mode Pay-As-You-Go, ainsi que l’analyse et la configuration des environnements Gateway (PowerShell, VMNET, réseau). Le consultant interviendra en tant qu’expert afin d’apporter des recommandations d’architecture, résoudre des problématiques complexes et accompagner les équipes sur des sujets techniques critiques. L’intervention se fera sous forme de sessions d’expertise ponctuelles de 2 à 4 heures.
Offre d'emploi
Team Leader – Senior System Engineer Linux
Gentis Recruitment SAS
Publiée le
Administration linux
Management
Virtualisation
Luxembourg
💻 Infrastructures & Systèmes CritiquesVotre rôle En tant que Team Leader – Senior System Engineer , vous serez le garant de la stabilité, de la performance et de la sécurité de nos environnements systèmes et bases de données. Ce poste stratégique combine une expertise technique de haut niveau et un rôle d’encadrement visant à accompagner, structurer et faire monter en compétences une équipe d’ingénieurs systèmes. Vous interviendrez dans un environnement critique et à haute disponibilité , tout en participant activement aux projets d’évolution de l’infrastructure. 🔧 Vos missions Administration systèmes Garantir la disponibilité, la performance et la sécurité des environnements Linux Assurer le maintien en conditions opérationnelles des systèmes critiques Virtualisation & Cloud Administrer et optimiser les plateformes de virtualisation ( VMware ) Contribuer à la modernisation des environnements vers des architectures HCI (Nutanix) Bases de données Assurer l’administration, la performance et la fiabilité des bases Oracle Participer à l’optimisation des environnements bases de données critiques Stockage & sauvegarde Administrer les infrastructures de stockage ( SAN ) Gérer et optimiser les solutions de sauvegarde ( Commvault , Cohesity) Automatisation & exploitation Développer des scripts d’automatisation pour l’exploitation et le monitoring Améliorer la fiabilité et l’industrialisation des opérations Sécurité Appliquer les bonnes pratiques de durcissement des systèmes Contribuer à la sécurité globale des infrastructures (IAM, MFA, bonnes pratiques) Encadrement & expertise Accompagner les ingénieurs systèmes au quotidien Partager les bonnes pratiques et apporter une expertise technique de référence Participer aux choix techniques et aux arbitrages structurants Projets & support Contribuer aux projets d’évolution d’infrastructure Assurer le support Niveau 2 / 3 sur les incidents complexes Participer aux dispositifs PRA / PCA
Mission freelance
🚀 Senior Fullstack Engineer – React / Python (H/F)
Tenth Revolution Group
Publiée le
AWS Cloud
Django
Kubernetes
12 mois
370-570 €
Paris, France
🎯 Contexte de la mission Intégrez une scale-up B2B SaaS en forte croissance (7M+ utilisateurs, Serie B €30M) pour piloter la refonte complète du back-office d'une plateforme de gestion utilisée par des milliers de studios à travers l'Europe. Mission à fort impact produit, dans un environnement engineering exigeant et moderne. 🛠️ Ce sur quoi vous travaillerez 70% Front-end – Refonte back-office : Prise en charge de la refonte des pages clés (listes, fiches membres, pages établissements, outils formateurs…) Implémentation d'interfaces depuis des prototypes haute-fidélité Code React (TypeScript) propre, testé, aligné sur le design system interne Collaboration avec les engineers internes pour la maintenabilité long terme 30% Backend – Support fonctionnel : Évolution de la logique backend qui alimente les features refontes (APIs, modèles de données, règles métier) Garantie d'une livraison end-to-end : pas seulement visuelle, mais fonctionnelle Coordination avec les engineers backend pour aligner les contrats d'API et anticiper les dépendances 🔧 Stack technique Front-end : React (TypeScript), Zustand, styled-components, design system interne Back-end : Django, PostgreSQL, AWS, Kubernetes Un bon niveau en Python / PostgreSQL est attendu
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Mission freelance
Dbt Technical Expert – Data Engineer Senior
Signe +
Publiée le
DBT
12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
Mission freelance
Senior cloud engineer Azure H/F
HAYS France
Publiée le
6 mois
500-600 €
Luxembourg
Responsabilités clés : Administration des plateformes Azure DevOps Gestion et optimisation des pipelines Azure DevOps pour les processus CI/CD Développement de solutions Infrastructure as Code, incluant la conteneurisation Collaboration avec les architectes afin de définir les standards et bonnes pratiques Participation aux projets stratégiques de migration vers le cloud Automatisation et optimisation des processus liés à l'environnement Azure Supervision, maintenance et résolution des incidents Gestion des Azure Subscriptions et des Management Groups Garantie de la conformité avec les normes de sécurité et les exigences réglementaires Collaboration avec les équipes infrastructure et les équipes d'ingénierie logicielle
Mission freelance
Sénior Data Engineer SQL & GCP
INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)
3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Offre d'emploi
« Senior Windows System Engineer – Technical Coordinator » - Luxembourg
EXMC
Publiée le
Active Directory
ADFS
Coordination
4 ans
Luxembourg
« Senior Windows System Engineer – Technical Coordinator » (H/F) Description des tâches : COMPÉTENCES GÉNÉRALES · Minimum 8 années d’expérience professionnelle en environnement IT · Facilité d’intégration et goût pour le travail en équipe indispensable · Autonomie dans le travail · Fort esprit d'initiative et capacité à gérer des tâches multiples · Polyvalence et rigueur de travail · Bonne compétence organisationnelle et aisance de communication · Esprit d’analyse pour la résolution de problèmes · Expérience en environnement critique (secteur financier, SLAs élevés, exigences fortes de qualité · de service) Respect des procédures administratives et de l’organisation existantes · Rédaction de documentations et transfert des connaissances · Maîtrise des langues française et anglaise, la connaissance du Luxembourgeois constitue un atout. COMPÉTENCES TECHNIQUES REQUISES · Expertise confirmée en environnements Windows Server (2016, 2019, 2022, 2025) · Maîtrise avancée de PowerShell (développement et automatisation) · Très bonnes connaissances des technologies Microsoft : o Windows Failover Cluster o Active Directory o ADFS o ADCS · Maîtrise des pratiques de sécurisation et de cybersécurité des environnements Microsoft · Gestion/Coordination de projets techniques COMPÉTENCES TECHNIQUES COMPLÉMENTAIRES (AOUT) • VMware et Omnissa Horizon • Réseaux (DNS, Webproxy, Firewall, Loadbalancing,…) • Applications Bancaires • MS Project PROFIL ET ORGANISATION • Profil technique avancé • Capacité à planifier et gérer ses travaux de façon autonome • Possibilité de coordonner des travaux inter-équipes • Présence sur site jusqu’à 5 jours par semaine • Télétravail possible mais limité • Horaires de travail sont flexibles entre 07h00 et 19h00 avec plage de présence 09h00–16h00 MISSION La mission de l’ingénieur système consiste à : • Participation aux projets / Gestion de mini projet • Prendre part à une équipe aux compétences vastes (Windows, VMWare, Applications tier, • Sécurité, Troubleshooting avancé,..) • Amélioration/fiabilisation/Automatisation des systèmes • Participation aux traitements des tickets Level 3 • Rédiger les documentations • Effectuer le transfert de connaissances aux équipes Level 2 Merci d’adresser votre CV actualisé, une date de disponibilité, vos prétentions salariales dans le cadre d’un contrat de travail, ou votre TJM pour les indépendants, par e-mail à
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Mission freelance
Senior Data Engineer – Data Platform Enabler
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps
12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
62 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois