Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 803 résultats.
CDI
Freelance

Offre d'emploi
Expert SysOps Cloud Azure H/F

Le Groupe SYD
Publiée le
Automatisation
Azure
FinOps

12 mois
45k-50k €
450-530 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Expert SysOps Cloud Azure H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Hybride – 2/3 jours TT 📝 Contrat : CDI ou Portage 👉 Contexte client : Tu rejoins un acteur d’envergure engagé dans une refonte complète de son environnement Cloud Azure. L’objectif ? Reconstruire toute l’architecture Cloud , rationaliser les usages et maîtriser les coûts d’une plateforme devenue trop onéreuse mois après mois. Au sein de l’équipe Cloud & Ops , tu participes à la redéfinition des fondations Azure : structuration des groupes de ressources, revue des droits et rôles, optimisation des workloads, gouvernance, sécurité et bonnes pratiques. Tu auras pour missions de : Repenser et reconstruire l’ architecture complète du Cloud Azure (resource groups, gouvernance, policies, RBAC, subscription design). Optimiser les coûts et mettre en place les bonnes pratiques FinOps pour réduire la facture mensuelle. Administrer, maintenir et faire évoluer les environnements Azure (VM, Storage, VNet, Load Balancer, Firewall, Identity…). Fiabiliser et industrialiser les déploiements via des pratiques SysOps avancées. Assurer la gestion des droits, rôles et accès (IAM, RBAC, Azure AD). Mettre en place ou renforcer la supervision, la sécurité et les mécanismes d’automatisation. 🧰 Stack technique : Cloud : Microsoft Azure (VM, Storage, VNet, Load Balancer, App Services ) Gouvernance & Architecture : Policies, Blueprints, gestion des ressources, structuration des subscriptions, tagging Optimisation : FinOps, cost management, right-sizing, rationalisation Ops & Automatisation : PowerShell, CLI Azure, Terraform, monitoring Azure, sécurité Cloud Supervision & Sécurité : Azure Monitor, Log Analytics, Defender for Cloud
Freelance
CDI

Offre d'emploi
DevSecOps AWS - Transformation

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps AWS pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur AWS et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés.
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
CDI

Offre d'emploi
DevOps AWS H/F

DAVRICOURT
Publiée le
DevOps

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance

Mission freelance
Ingénieur Systèmes & Réseaux (Linux)

HAYS France
Publiée le
Ansible
Automatisation
AWS Cloud

3 ans
Schiltigheim, Grand Est
Notre client, acteur reconnu de la protection sociale spécialisé dans la gestion de contrats d’assurance, d’épargne et de prévoyance, s’appuie sur des équipes pluridisciplinaires pour délivrer des services fiables, performants et en amélioration continue. Dans ce contexte, il recherche un Ingénieur Systèmes & Réseaux pour intervenir en régie au sein de l’équipe technique. Missions principales : Concevoir et mettre en œuvre des architectures Linux/RedHat Assurer le MCO niveau 2/3 Automatiser les déploiements et opérations (Ansible, Bash/Python) Participer aux choix technologiques et analyses d’impact Appliquer les remédiations de sécurité Gérer et résoudre les incidents complexes Compétences techniques recherchées : Linux / RedHat Architecture systèmes, virtualisation et réseau Automatisation (Ansible, scripting) Sécurité & firewalling (Palo Alto, Stormshield…) Gestion de projet technique Cloud hybride (Azure, AWS, environnements privés)
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
CDI
Freelance

Offre d'emploi
Data Engineer AWS expérimenté

UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python

1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Freelance

Mission freelance
Expert IAM Azure

Signe +
Publiée le
Administration linux
IAM
Terraform

6 mois
270-450 €
Toulouse, Occitanie
Description détaillée de la prestation : Le consultant devra soutenir l’équipe OPS IAM dans : • la conception, la construction et le déploiement des services IAM sur Azure, • la migration d’éléments tels que les proxies d’autorisation, les annuaires LDAP et les services de provisioning, • la livraison de guides d’exploitation, d’architectures HLD/LLD, et la réalisation du transfert de connaissances aux équipes internes, • un support éventuel de niveau 3 sur les composants mis en place. Techno : • Maîtrise solide : Linux, Azure, automatisation (Terraform, Ansible, GitHub) • Très bonne connaissance de l’écosystème IAM (OIDC, SAML2, LDAP) • Expertise en PingAccess et OpenLDAP ; connaissance PingFederate / PingOne appréciée • Expérience avérée sur la conception et l’implémentation d’architectures IAM dans Azure • Bonne communication FR/EN et capacité à travailler en équipe
Freelance
CDI

Offre d'emploi
Architecte Cloud Azure Senior (H/F)

Gentis Recruitment SAS
Publiée le
Windows Server

12 mois
40k-45k €
400-550 €
Île-de-France, France
Architecte Cloud Azure Senior (H/F) Nous recherchons un Architecte Cloud Azure senior pour intervenir dans un environnement cloud hybride et accompagner les équipes dans la conception et l’évolution des architectures cloud. Missions principales Assurer le rôle d’architecte cloud Azure et garantir la continuité des activités d’architecture. Reprendre et faire évoluer les architectures Azure existantes . Concevoir des architectures Azure IaaS, PaaS et Cloud Native . Accompagner les équipes applicatives dans les choix d’architecture cloud et Kubernetes . Participer aux revues d’architecture et au cadrage technique des projets. Maintenir et promouvoir les bonnes pratiques Azure, AKS et Infrastructure as Code . Produire et maintenir la documentation d’architecture (HLD, LLD, schémas) . Compétences techniques attendues Expertise Microsoft Azure (IaaS / PaaS) . Bonne maîtrise des architectures réseau et sécurité Azure (VNet, RBAC, Private Endpoints, Managed Identity, Key Vault). Expérience sur Azure Kubernetes Service (AKS) et architectures cloud-native. Connaissance des bonnes pratiques d’architecture cloud et Infrastructure as Code . Expérience en environnement hybride (On-Premise / Cloud) . Profil recherché Minimum 10 ans d’expérience en architecture IT / Cloud . Capacité à conseiller et accompagner des équipes techniques . Autonomie, capacité d’analyse et posture d’architecte transverse.
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Aix-en-Provence

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance
CDI

Offre d'emploi
Cloud Security Architect AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
CDI

Offre d'emploi
Data Architect H/F

OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI

60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
CDI

Offre d'emploi
Administrateur DevOps Cloud AWS

CONCRETIO SERVICES
Publiée le
AWS Cloud
DevOps
Jenkins

50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte & Environnement Vous rejoignez une équipe de 5 personnes dans un contexte fortement international impliquant de nombreuses collaborations avec des équipes offshore. Ce poste requiert d'excellentes qualités relationnelles et une capacité à communiquer efficacement en français et en anglais, tant à l'écrit qu'à l'oral. Missions Principales – Administrer et maintenir l'infrastructure Cloud AWS (EC2, ECS, S3, IAM, VPC, RDS…) – Concevoir, déployer et optimiser les pipelines CI/CD avec Jenkins – Diagnostiquer et résoudre les incidents liés aux chaînes de livraison continue – Automatiser les déploiements et la configuration des environnements via Ansible – Superviser les conteneurs applicatifs orchestrés sur Amazon ECS – Collaborer étroitement avec les équipes de développement onshore et offshore – Rédiger la documentation technique et les runbooks en français et en anglais – Participer activement aux rituels Agile et aux réunions de pilotage internationales
Freelance
CDI

Offre d'emploi
Architecte Cloud BLEU - Transformation Cloud Souveraine

KLETA
Publiée le
Azure
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation vers des environnements BLEU, nous recherchons un Architecte Cloud capable d’accompagner nos clients dans la structuration et l’industrialisation de leurs plateformes souveraines. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, réglementaires et organisationnelles propres à BLEU. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de sécurité, de résilience et de gouvernance. Vous participerez à la conception de Landing Zones BLEU, à la structuration des environnements et à la mise en place de bonnes pratiques d’architecture souveraine. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements et à l’adoption des principes cloud native adaptés au contexte BLEU. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur les spécificités de BLEU et en partageant les bonnes pratiques d’architecture.
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5803 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous