L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 969 résultats.
Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault
CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD
3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Offre d'emploi
Responsable Infrastructure Serveurs (H/F)
SPIE ICS
Publiée le
Azure
Cloud
Infrastructure
6 mois
40k-65k €
400-450 €
Puteaux, Île-de-France
Nous recherchons pour notre client un(e) Responsable Infrastructure Serveurs (H/F) capable de gérer et superviser l’ensemble des serveurs informatiques, On Premise ou hébergés dans le cloud (notamment Azure). Vous jouerez un rôle clé pour assurer la performance, la sécurité et la continuité des services informatiques. Lieu : Paris - La Défense (92) Missions principales : Piloter une équipe technique d’environ 3 personnes en charge des serveurs et infrastructures. Organiser et sécuriser les ressources Azure en appliquant les conventions de nommage, les standards Cloud Adoption Framework (CAF) et les bonnes pratiques internes pour garantir cohérence et sécurité. Surveiller les environnements cloud (DEV, REC, PROD) pour assurer leur bon fonctionnement, optimiser les coûts et garantir la performance, avec mise en place d’alertes et de dashboards. Garantir la sécurité et la conformité en respectant les politiques RGPD, NIS2, et les standards de sécurité cloud (IAM, Azure AD, monitoring). Gérer les plateformes de virtualisation Nutanix AHV : configuration, maintenance et optimisation des clusters pour assurer haute disponibilité et performance. Administrer les serveurs Windows et Linux : installation, mises à jour et maintien en condition opérationnelle. Superviser globalement les infrastructures : suivi des performances, surveillance proactive des incidents matériels et logiciels, et mise en œuvre des plans de continuité (tolérance aux pannes, reprise après sinistre). Gérer les sauvegardes et restaurations : administration des solutions de backup et externalisation des données. Effectuer une veille technologique pour rester informé(e) des dernières innovations.
Mission freelance
DBA MongoDB / Azure
STHREE SAS pour HUXLEY
Publiée le
Azure
Mongodb
1 an
400-620 €
Île-de-France, France
1. Services attendus du Prestataire Les activités présentées ci-dessous correspondent à des attentes de EM IS.CORE IS.INFRA. Il appartient au Prestataire de compléter et de préciser si nécessaire le contenu de chacune, voire d'ajouter d'autres activités. Il est attendu du Prestataire la proposition d’un profil ayant les compétences demandées en adéquation avec les activités demandées. Après l’analyse des activités, le Prestataire pourra proposer des compétences complémentaires. L’ensemble des livrables sera établi selon les modèles et normes de présentation en vigueur à EM-IS. Les livrables seront remis au fur et à mesure de l’exécution de la prestation y compris dans des versions intermédiaires : ils seront envoyés sous forme électronique par la messagerie de l’entreprise. Le parc serveurs est constitué d’environ 4000 machines repartis sur deux cloud provider (Azure / AWS) et deux datacenters dont 95 % sous forme d’enveloppes virtuelles. Le parc Workstation repartie sur plusieurs sites (contexte international) est composé d’environ 2000 postes (fixes et mobiles). Ces postes sont reparties dans plusieurs annuaires active directory. Sous la responsabilité des Responsables des DBA, l’expert devra : • Travailler en environnement de haute disponibilité • Travailler sur des environnements virtuels • Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS • Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. • S’intégrer aux process agiles des équipes de développement de son périmètre. • Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes EM IS infra • être impliqué dans l'étude concernant l'avenir des actifs infra. • Contribuer à la transformation de l'infrastructure informatique chez EM IS, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). • Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Très à l’aise avec la résolution de problèmes techniques, votre aptitude à comprendre les besoins et/ou problèmes des utilisateurs IT et Business sera un atout important pour réussir dans le poste ! 2. Activités Les principales activités sont : 2.1 Expertise MongoDB (prioritaire) Le DBA devra assurer les activités suivantes : • Expertise avancée MongoDB (cluster, réplication, haute disponibilité). • Optimisation et performance tuning : analyse de requêtes, indexation, diagnostic. • Gestion de l’intégrité et de la sécurité des données. • Mise en place et suivi des sauvegardes, restauration, continuité de service. • Support utilisateur de niveau expert (accompagnement projets, résolution incidents). • Contribution à la gouvernance : standards, bonnes pratiques, documentation, monitoring. • Maitrise du cloud Azure en mode Iaas 2.2 Services PaaS Azure Database Le DBA interviendra en tant que référent technique sur les services : • Azure SQL Database, SQL Managed Instance, Cosmos DB, PostgreSQL/MySQL Flexible Server. • Définition et maintien de la gouvernance : o sécurité, RBAC, accès o alerting et observabilité o stratégie de sauvegardes/supervision • Support technique avancé pour les équipes projets et exploitation. • Participation aux architectures, amélioration continue et alignement sur les standards Cloud. • Garantir la cohérence, la disponibilité et la conformité des plateformes de données PaaS. • Réalisation de la documentation nécessaire.
Mission freelance
AI Engineer Senior (Générative IA / Microsoft Azure)
Groupe Aptenia
Publiée le
Microsoft Copilot Studio
API
Azure
12 mois
500-650 €
Paris, France
Dans le cadre d’une mission longue au sein d’un centre d’excellence en IA générative d’un grand groupe international du secteur de la banque privée , nous recherchons un AI Engineer Senior spécialisé dans l’écosystème Microsoft Azure . Le consultant interviendra sur un assistant IA métier déjà en production , connecté au CRM, avec pour objectifs principaux : l’ industrialisation de la solution existante, l’ extension des cas d’usage , l’amélioration de la scalabilité , de la robustesse , de la sécurité et de la maîtrise des coûts . La mission s’inscrit dans un environnement structuré, organisé autour d’équipes Produits (conception de solutions IA) et Plateformes (Cloud, Sécurité, DevSecOps, Observabilité). Les principales responsabilités sont : Concevoir et implémenter des architectures d’IA générative . Développer et faire évoluer des agents IA / assistants métier . Travailler sur des problématiques LLM, RAG, embeddings, prompt engineering et orchestration d’agents . Intégrer les solutions IA dans le SI existant via APIs et services Microsoft. Connecter les agents à différentes sources de données métiers . Mettre en place et maintenir le monitoring en production . Optimiser en continu la qualité des réponses , les performances et les coûts . Gérer les anomalies et évolutions mineures en production. Travailler en mode Agile (Scrum) avec reporting régulier. Contribuer à la documentation technique et au partage de bonnes pratiques. Compétences attendues Compétences techniques Expérience confirmée en IA générative et agents IA . Maîtrise des concepts : LLM RAG Embeddings Prompt engineering Tool calling Expérience avec des frameworks d’orchestration d’agents (ex. Semantic Kernel ou équivalent). Très bonne connaissance de l’écosystème Microsoft Azure , notamment : Copilot Studio Azure AI Foundry / Fabric API Management Power Platform & Dataverse Azure Functions Développement : Python (impératif) C# JavaScript Sensibilité aux pratiques DevSecOps , monitoring et observabilité. Certifications (appréciées) Azure AI Engineer (AI-102) Azure AI Fundamentals (AI-900) Azure Developer (AZ-204) Langues Français requis Anglais professionnel
Offre d'emploi
Architecte Technique H/F
Proxiad
Publiée le
Administration linux
Azure
DevOps
3 ans
Lille, Hauts-de-France
🎯 Architecte Technique Système & Cloud / Vision & Impact Ce poste ne consiste pas à “valider des schémas”. Il consiste à structurer une architecture d’avenir. Nous recherchons un(e) Architecte Technique capable d’allier vision stratégique et expertise opérationnelle dans un environnement hybride Cloud privé / Cloud public. Votre terrain de jeu Définir les architectures techniques des nouvelles plateformes Prototyper, challenger, industrialiser Structurer la roadmap Cloud Formaliser les standards et diffuser les bonnes pratiques Accompagner les équipes projets dans leurs décisions techniques Vous êtes le garant de la cohérence et de la pérennité du SI. 🛠️ Stack principale Cloud privé virtualisé, Azure / GCP / OCI, Windows & Linux, automatisation, DevOps, observabilité.
Mission freelance
POT8868 - Un Ingénieur de Prod $U / DevOps Azure sur Blois
Almatek
Publiée le
Dollar Universe
6 mois
310-430 €
Blois, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Ingénieur de Prod $U / DevOps Azure sur Blois. Les objectifs de la mission incluent : - La conception et le déploiement des plans batch $U sur des infrastructures Windows ou Linux. - La maintenance et l’évolution de l’outillage de déploiement et de lancement de batch. - Le support aux utilisateurs BATCH (MOE/MOA, équipe Tests et suivi exploitation). - La participation aux projets dans le cadre des recettes en tant qu'assistance technique. - L’accompagnement et le transfert de connaissances aux équipes internes. Les livrables attendus sont : - Un système applicatif opérable et documenté. Les compétences requises pour ce poste sont : - Une expérience de conception d'ordonnancement sur l'outil Dollars Universe (V6 et V7). - Une expérience d’intégration sur les plateformes Windows serveur (à partir de 2012). - Une expertise technique dans le déploiement des technologies : $U, C#, .Net, IIS (7.0 ou supérieur), et des scripts PowerShell (5.0 ou supérieur). - Une rigueur et méthodologie avérées. Les compétences clés incluent : - Obligatoire : Conception Dollar Universe, Scripting PowerShell. - Important : CI/CD (Azure DevOps), exploitation Ordonnanceur.
Mission freelance
Architecte Réseau / Azure
emagine Consulting SARL
Publiée le
Architecture
Network
3 ans
400-550 €
Île-de-France, France
Au sein du département Network Product , la ligne de produits Data Center & Cloud Network Connectivity est responsable des infrastructures réseau des Data Centers et des environnements Cloud , incluant notamment : routeurs, switches, load balancers, accès Internet, interconnexions Data Center (backbone), DWDM, ainsi que les environnements réseau Cloud ( AWS, Azure, Google, Intercloud ). Les services d’ingénierie Data Center & Cloud Network ont pour mission de concevoir, déployer, fournir et supporter ces produits et services, contribuant ainsi fortement aux objectifs du programme One Network . 2. Services Le service est responsable de la conception, de l’intégration et du support des solutions réseau , de manière durable, robuste et sécurisée . Les équipes d’ingénierie Data Center & Cloud Network accompagnent les Product Owners afin de proposer des solutions optimisées en coûts et créatrices de valeur métier , en adéquation avec la stratégie du groupe et des lignes métiers. Les principales activités, dans le périmètre de responsabilité du service, incluent notamment : Contribuer et soutenir l’ évolution des produits à moyen et long terme , ainsi que l’ amélioration continue des produits, Sécuriser les phases de build et d’intégration des produits du périmètre, Garantir la qualité de service (QoS) lors de la mise à disposition et du support des solutions, Fournir un support de haut niveau d’expertise sur les produits et services.
Mission freelance
Consultant Ivalua
DEVIK CONSULTING
Publiée le
Azure Data Factory
Finance
Ivalua
2 ans
650-800 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un consultant Ivalua pour rejoindre le département Global Support Functions Application. Le consultant aura pour rôle de superviser le support de certaines application Finnance et apporter une expertise sur l’application Ivalua Mission principale : Le/La candidat(e) retenu(e) sera responsable de la bonne fourniture des services, de la maintenance technique et fonctionnelle ainsi que des évolutions futures des applications Finance et produits qui lui seront attribués, notamment :. Ivalua , en particulier les fonctionnalités SRM, S2C et P2P . Le démarrage du RUN pour les premiers pays et fonctionnalités est prévu tout début 2026 . Cette expertise est obligatoire afin d’assurer le RUN en tant qu’administrateur(trice) de la plateforme. Le/La candidat(e) devra posséder : une certification niveau 2 (L2) pour l’administration fonctionnelle générale, une certification niveau 3 (L3) spécifique à la configuration des modules et des intégrations. De plus, la certification Project Release Manager (PRM) serait fortement appréciée. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres produits mentionnés ci-dessous seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12 . La connaissance des applications suivantes pourrait également être un plus : Generix , en particulier le module Generix Invoices Service . Le démarrage du RUN pour le premier pays, est prévu début 2026 . SideTrade (Augmented Cash et plusieurs autres modules optionnels). Le RUN de plus de 10 pays devra être maîtrisé et mis sous contrôle. Azure Data Factory (ADF) , utilisé comme middleware pour connecter certaines applications à l’ERP Groupe. Lieu : Paris
Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Mission freelance
Intégrateur Technique /Gestionnaire Env. H/F
Insitoo Freelances
Publiée le
Administration linux
Azure Kubernetes Service (AKS)
Linux
2 ans
252-336 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Paris et Marseille et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Intégrateur Technique /Gestionnaire Env. H/F à Aix-en-Provence, France. Contexte : La prestation porte sur la gestion et l’industrialisation des environnements de recette Les missions attendues par le Intégrateur Technique /Gestionnaire Env. H/F : Déploiement des applications sur les différentes plateformes. Exécution et suivi des tests d’accrochage technique (tests automatisés). Validation de la conformité globale des environnements avant mise à disposition des équipes fonctionnelles. Prise en charge des incidents, analyse des causes racines, suivi et documentation. Collaboration étroite avec les équipes de développement et d’exploitation pour sécuriser les livraisons. Mise en place de procédures de surveillance, reporting, et industrialisation des gestes techniques (scripts, automatisation) Compétences indispensables Bases solides en Unix/Linux (commandes, gestion de services, logs). Compréhension des cycles de développement et environnements de recette. Déploiement d’applications sur différentes plateformes. Analyse d’incidents, qualification, escalade au niveau 2 si nécessaire. Bonne capacité de communication et travail avec équipes Dev / Exploit. Compétences souhaitées (idéal mais non obligatoires) Connaissances Kubernetes (K8s) et plateformes conteneurisées . Maitrise de ArgoCD ou d'un autre outil GitOps. Notions de pratiques DevOps . Scripting ( Shell , éventuellement Python). Idéalement : notions de développement (Java / Angular) — non exigé . Localisation : Aix-en-Provence (13) Télétravail : 2j/5
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Offre d'emploi
Développeur mobile React Native / Data Engineer H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks
12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Mission freelance
AI Engineer H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
Azure AI
C#
6 mois
Paris, France
🔧 Project Description AI Engineer – Assistant IA métier Le consultant interviendra au sein de l’équipe Produit, en collaboration étroite avec : les équipes Plateformes (DevSecOps, Data Platform, AI Platform), l’équipe Produit (CRM), les équipes métiers. La mission couvre plusieurs axes structurants : refonte de l’architecture afin de permettre un découplage et une abstraction de l’accès aux données ; intégration de nouveaux parcours utilisateurs sur des canaux mobiles et des applications métiers existantes (CRM, Outlook, Teams) ; connexion à de nouvelles sources de données (Outlook, SharePoint, applications métiers) ; extension géographique (Monaco, Luxembourg) et extension métier (Corporate, Asset Management) ; convergence avec Copilot et renforcement des parcours pre-meeting / post-meeting ; mise en place d’un monitoring avancé. 🎯 Mission Objective & Livrables Objectifs de la mission : Industrialiser l’assistant IA. Garantir la scalabilité, la performance, la sécurité et la conformité réglementaire des solutions IA. Étendre les usages, les périmètres métiers et géographiques du produit. 👤 Responsabilités Conception & mise en œuvre IA Participer à la définition des architectures IA en s’appuyant sur Copilot Studio, AI Foundry et Semantic Kernel, en garantissant performance, sécurité et conformité réglementaire. Concevoir, développer et mettre en œuvre des agents IA (copilotes, assistants métier, agents autonomes) répondant aux besoins des équipes produit et métiers. 2) Cadrage des cas d’usage & collaboration sécurité/produit Collaborer avec les équipes produit, architectes et experts sécurité pour cadrer les cas d’usage, affiner les prompts, orchestrer les workflows et fiabiliser les réponses IA. 3) Intégration SI & interopérabilité Intégrer les agents IA au système d’information existant, notamment via Dataverse, Dynamics 365 CE, Power Platform, API Management (APIM) et MCP Server. 4) Exploitation, monitoring & amélioration continue Mettre en place le monitoring des solutions en production. Contribuer à l’amélioration continue des agents (qualité des réponses, performance et coûts). Prendre en charge les anomalies et évolutions mineures pendant les phases de recette et de production. Proposer des optimisations de coûts liées à l’usage des solutions IA. 5) Capitalisation & montée en compétences Contribuer à la documentation technique, au partage de bonnes pratiques et à la montée en compétences des équipes internes sur les usages IA. 6) Gouvernance projet & mode de delivery (Agile) Participer aux cérémonies agiles Scrum. Reporter aux Product Owners sur l’avancement des travaux. Alerter l’équipe en cas de difficultés rencontrées ou de risques de retard. 7) Veille & innovation (écosystème Microsoft) Assurer une veille sur les évolutions de l’écosystème Microsoft et identifier les apports potentiels dans le contexte du projet.
Offre d'emploi
DBA Expert MongoDB (H/F)
AVA2I
Publiée le
Azure
Database
Mongodb
3 ans
Île-de-France, France
Dans le cadre du renforcement des équipes IT et de l’évolution des plateformes data vers le cloud, un acteur du secteur de l’énergie recherche un DBA MongoDB expert pour intervenir sur des environnements Azure PaaS à forte criticité, basés sur les technologies MongoDB. Le poste est orienté expertise opérationnelle et technique. Il ne s’agit pas d’un rôle d’architecte mais d’un référent MongoDB capable d’intervenir en profondeur sur la plateforme. Missions principales Administration et exploitation de bases MongoDB en environnement Azure PaaS. Maintien en Conditions Opérationnelles incluant la performance, la disponibilité et la sécurité. Supervision des bases et suivi des indicateurs. Optimisation des performances avec tuning avancé et gestion des index. Gestion des volumes, de la réplication et de la haute disponibilité. Gestion des incidents complexes de niveau N2 et N3. Diagnostic et troubleshooting avancé MongoDB. Réalisation des montées de version et opérations de maintenance. Mise en place et suivi des bonnes pratiques incluant les sauvegardes, restaurations, la sécurité et la supervision. Support technique aux équipes applicatives et rôle de référent MongoDB. Environnement technique MongoDB avec expertise indispensable. Azure PaaS incluant Cosmos DB API MongoDB et MongoDB managé. Cloud Microsoft Azure. Automatisation et scripting PowerShell, Python ou équivalent. Supervision, sécurité et haute disponibilité.
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché 2026: rebond ou stagnation ?
- SASU IR - Prelevement sociaux
- Freelances : comment vous gérez votre admin au quotidien ?
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
3969 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois