L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 119 résultats.
Mission freelance
Data Engineer / Analyste Azure (MSBI) :
Cherry Pick
Publiée le
Azure
MSBI
SQL
12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Mission freelance
Développeur Back-End Java
Sapiens Group
Publiée le
AWS Cloud
Docker
GitLab CI
12 mois
470-500 €
Hauts-de-France, France
Contexte : Garantir l’excellence technique, structurer les pratiques de développement et assurer une livraison rapide, fiable et pérenne des solutions. 🔹 Leadership technique & architecture Définir et porter la vision technique Unifier les pratiques et arbitrer les décisions structurantes Participer aux études de faisabilité, cadrages et estimations Être le référent technique auprès du PO, DevOps et équipes Infra 🔹 Qualité & amélioration continue Garantir la qualité de code (Quality Gate, couverture de tests, TDD/BDD) Animer les Code Reviews et suivre les indicateurs clés Piloter et prioriser la dette technique Mettre en place et suivre les métriques (couverture, anomalies, workflow, revues) Organiser des actions d’amélioration continue 🔹 Delivery & production Orienter vers des solutions simples, robustes et maintenables (KISS) Favoriser la collaboration DevOps et la culture CI/CD Suivre la performance de delivery (fréquence, taille des déploiements) Assurer la qualité en production et l’analyse des incidents 🔹 Contribution à l’équipe Participer activement aux cérémonies agiles Contribuer aux estimations et à la priorisation Faciliter le partage de connaissances et l’onboarding Créer de la cohésion et accompagner la montée en compétences
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Offre d'emploi
Cloud Network Engineer AWS
Tenth Revolution Group
Publiée le
AWS Cloud
CI/CD
Datadog
21k-70k €
Paris, France
Vous rejoignez une équipe qui conçoit et opère une plateforme IoT critique à grande échelle. Votre rôle : automatiser l’infrastructure réseau par le code , améliorer la sécurité et garantir la fiabilité globale du système. Vos responsabilités principales Automatisation & développement Développer des outils réseau en Python / TypeScript Concevoir des APIs et workflows d’automatisation du provisioning Industrialiser l’infrastructure via Infrastructure as Code (Terraform / CDK) Intégrer les solutions dans des pipelines CI/CD (GitHub Actions) Réseau cloud & scalabilité Faire évoluer l’architecture réseau cloud (VPC, routing, firewalling, peering, VPN) Participer à la gestion d’une flotte IoT 4G/5G en forte croissance Diagnostiquer et résoudre des incidents réseau à grande échelle Sécurité by design Automatiser la rotation des certificats (HTTPS, routeurs, tunnels VPN) Contribuer au hardening de l’infrastructure cloud et réseau Assurer la conformité et les exigences de cloud souverain Observabilité & fiabilité Mettre en place dashboards, alerting et SLO (Datadog) Automatiser la détection et la remédiation d’incidents Améliorer la résilience et la performance de la plateforme
Offre d'emploi
Ingénieur.e Senior Citrix / Azure Virtual Desktop
NEWRAMA
Publiée le
Azure
Citrix
3 ans
Paris, France
Vous intégrez un environnement technologique complexe pour piloter la migration d'une infrastructure de virtualisation historique vers le Cloud. Votre rôle est central : assurer la transition fluide de Citrix vers Azure Virtual Desktop (AVD). Missions : 1. Architecture & Design AVD Concevoir l’architecture cible sur Azure (host pools, gestion des images, réseau, sécurité). Définir la stratégie de migration (coexistence, bascule progressive). Rédiger la documentation technique et les schémas d'architecture. 2. Migration & Mise en œuvre Préparer et piloter le transfert des environnements. Créer et optimiser les Golden Images. Configurer FSLogix et la gestion des profils utilisateurs. Garantir la stabilité via des phases de tests et de validation (VABF/VSR). 3. Expertise & Automatisation Résoudre les incidents de niveau 3 complexes. Industrialiser les tâches récurrentes via du scripting PowerShell ou de l'IaC. Optimiser les performances et le capacity planning sur Azure.
Mission freelance
Analytics Engineer – Data & BI
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Offre d'emploi
Data Engineer confirmé H/F
SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI
12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre d'emploi
Technicien Support Applicatif N2 (H/F)
RIDCHA DATA
Publiée le
API REST
Confluence
JIRA
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’une augmentation importante de la charge de travail , l’équipe support doit être renforcée afin de maintenir un niveau de service optimal. Le technicien interviendra au sein de l’équipe support pour assurer le traitement des demandes clients et le bon fonctionnement des applications . Missions principalesSupport technique et applicatif Assurer un support de niveau 2 via un outil de ticketing . Diagnostiquer et résoudre les incidents techniques et fonctionnels . Garantir le respect des SLA liés au traitement des demandes de support. Gestion des comptes et accompagnement client Configurer les comptes clients sur les différentes applications . Accompagner les clients dans l’ intégration et l’utilisation de la solution en collaboration avec l’équipe Customer Success Management (CSM) . Rédiger les communications clients en cas d’incident ou d’évolution. Supervision et maintenance Déployer et maintenir les outils de supervision de la solution . Participer au suivi du bon fonctionnement des services applicatifs . Documentation et amélioration continue Rédiger et maintenir les procédures de support (niveau 1 et niveau 2) . Participer à l’ amélioration des processus de support . Support opérationnel Bien que les appels entrants soient principalement traités par un prestataire externe , intervenir ponctuellement en débordement si nécessaire. Livrables attendus Traitement des tickets de support niveau 2 Respect des SLA de traitement Documentation des procédures de support Communications clients lors d’incidents ou évolutions Suivi des outils de supervision applicative Compétences techniquesCompétences indispensables REST / SOAP – Confirmé – Impératif Bonne connaissance des outils de ticketing Compétences appréciées Jira Confluence Langues Anglais professionnel – impératif Environnement de travail Environnement éditeur logiciel Collaboration avec les équipes support, technique et Customer Success Méthodologie Agile (appréciée)
Offre d'emploi
PMO Senior – Programme de Transformation
ATTINEOS
Publiée le
Azure
1 an
Le Havre, Normandie
Vous souhaitez piloter un programme stratégique de transformation sur plusieurs années, au cœur d’un éditeur de logiciels en pleine évolution ? Vous aimez structurer, sécuriser et donner de la visibilité aux projets complexes tout en accompagnant les équipes vers plus de performance ? Cette opportunité est faite pour vous ! Dans le cadre d’un programme de transformation pluriannuel (5 ans), structuré en plusieurs workstreams, nous recherchons un·e PMO Senior pour accompagner le Directeur de Programme et le Directeur de la Transformation dans la sécurisation du pilotage global. Les missions : Mettre sous contrôle la planification programme : WBS, jalons, dépendances, chemin critique, gestion des écarts Consolider et fiabiliser le reporting décisionnel (avancement, risques, alertes, décisions attendues) pour les instances COPROJ, COPIL et CODIR Faciliter les ateliers avec les leads techniques et fonctionnels (découpage, séquencement, arbitrages de priorités) Structurer et optimiser l’usage des outils PPM et d’Azure DevOps pour assurer la traçabilité des backlogs jusqu’aux comités décisionnels Garantir la cohérence entre planification, engagement et capacité des équipes Produire des supports exécutifs clairs, orientés décision Accompagner et faire monter en compétence le PMO interne (transfert de méthodes, templates et bonnes pratiques) Contribuer à l’amélioration continue des pratiques de gouvernance projet Environnement & outils : Azure DevOps (structuration Epic / Feature, backlog, area paths, iteration paths), outils PPM (Project Monitor ou équivalent), méthodologies PMP / PRINCE2 / Agile (mode hybride Waterfall & Agile), reporting exécutif & gouvernance programme, contexte transformation / migration SI
Offre d'emploi
Product Owner / Data Steward
OCTOGONE
Publiée le
Data governance
Data modelling
IA
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Product Owner / Data Steward capable de jouer un rôle central dans la transformation Data & IA de l’entreprise. Profil recherché : Expérience solide en change management , transformation et accompagnement d’équipes Aisance dans l’ animation , la facilitation et la fédération de publics variés (contexte international) Capacité à structurer une vision , construire une roadmap et piloter le changement Sensibilité aux enjeux Data / IA (pas besoin d’expertise technique) Curiosité pour comprendre les modèles de données, référentiels et la sémantique Mission : Donner du sens à la démarche “Data & IA driven” Animer ateliers, communautés et groupes de travail Contribuer à l’acculturation Data/IA (sensibilisation, formations) Suivre l’adoption, valoriser les succès et ajuster les pratiques Faire le lien entre les équipes data, IA, IT et gouvernance Compétences Connaissance des data platforms (stockage, transformation, visualisation) Compétences en Data Governance et Data Modeling Excellentes compétences relationnelles, organisationnelles et d’animation
Mission freelance
Développeur .NET H/F
HAYS France
Publiée le
.NET
AWS Cloud
C#
10 mois
Gironde, France
Nous recherchons un Développeur .NET Confirmé pour rejoindre un projet innovant. Vous interviendrez au sein d’une équipe technique dynamique, engagée dans la création de nouvelles fonctionnalités et l’amélioration continue d’une plateforme à forte valeur ajoutée. Missions principales : 1. Développement de nouvelles fonctionnalités Concevoir et développer des features en C# Participer à l’évolution de l’existant et à la mise en place de nouvelles architectures Garantir la qualité, la performance et la maintenabilité du code 2. Automatisation et industrialisation Mettre en place l’automatisation des tâches récurrentes et structurantes afin d’optimiser le flux de développement. Mettre en place ou optimiser les pipelines CI/CD (Jenkins) Participer à l’harmonisation du code en appliquant les conventions d’équipe, une documentation soignée, des pratiques de développement maîtrisées et une architecture bien découplée. 3. Contribution à la réflexion technique Participer à la conception technique des nouvelles fonctionnalités Exploiter l’IA comme outil d’appui à la réflexion et à l’amélioration continue, tout en maintenant un niveau d’exigence élevé sur la qualité du code. Proposer des améliorations continues sur les process, l’architecture et les outils Stack Technique : C# / .NET (niveau confirmé) Terraform Jenkins MongoDB Cloud : AWS et/ou Azure Outils IA & productivité : Copilot, Cursor Bonne compréhension des architectures modernes, découplage, patterns, clean code Informations complémentaires : 1. Mobilité : Présence sur site quelques jours par mois à Bordeaux 2. TJM : Selon Profil 3. Mission Longue
Mission freelance
Ingénieur de production expert Azure API Gateway-Azure API Management /CLOUD/MQ Series/Talend (H/F)
Octopus Group
Publiée le
API
Azure
Middleware
6 mois
450-550 €
Ivry-sur-Seine, Île-de-France
Nous recherchons pour le compte de notre client Grand-compte dans le retail, un ingénieur de production ayant une expertise sur Azure API Gateway- plateforming & développement, MQ SERIES et confirmé dans les environnements cloud. vous intégrerez l’équipe Production Back Office – Flux. Vos missions seront : La création et mise en œuvre de la solution APIM (Azure) l'accompagnement et la mise en œuvre des solutions MQSeries, Confluent Cloud Kafka la création et la mise en œuvre d’une plateforme Talend (Cloud)
Offre d'emploi
Expert Cloud Engineer Azure & FinOps expert
VISIAN
Publiée le
Azure
YAML
3 ans
40k-45k €
400-540 €
Île-de-France, France
Localisation : Île-de-France / Full Remote possible selon politique groupe Description de la mission : Dans le cadre de l'évolution d'une solution critique liée au secteur du crédit, vous intervenez en tant qu'Expert Cloud pour piloter la gestion, la modernisation et l'optimisation des environnements Microsoft Azure. Votre rôle combine ingénierie de pointe, automatisation et pilotage de la performance économique (FinOps). Missions principales : Gestion et Modernisation : Administrer les environnements Azure et mener la transformation des services hébergés sur machines virtuelles (VM) vers des services managés (PaaS) pour accroître la scalabilité et l'agilité. Automatisation (IaC) : Concevoir et déployer les infrastructures via Terraform et Azure CLI. Industrialisation (CI/CD) : Développer et maintenir des pipelines Azure DevOps complexes (YAML) pour sécuriser les déploiements continus. Maintien en Conditions Opérationnelles (MCO) : Assurer l'exploitation des bases de données SQL Server (Managed Instance, Azure SQL), des APIs (App Services, Functions) et des services de calcul comme Azure Batch. Optimisation FinOps : Analyser la consommation, mettre en œuvre des stratégies de réduction de coûts (rightsizing, instances réservées) et piloter le budget cloud. Qualité et Gouvernance : Garantir la qualité du code (workflows Git) et le respect des standards d'architecture sécurisée. Profil recherché : Expérience : Niveau Expert (Seniorité confirmée sur des environnements Azure complexes). Expertise Technique : Maîtrise avancée de l'écosystème Microsoft Azure (IaaS et PaaS). Expertise confirmée en Terraform et Azure CLI. Solide expérience sur Azure DevOps Pipelines (YAML). Compétences en administration Windows Server et gestion de bases de données SQL Server . Soft Skills : Capacité d'analyse, autonomie, vision orientée "résultats" et optimisation des ressources. Points clés de l'offre : Projet technologique majeur alliant modernisation d'infrastructure et enjeux financiers (FinOps). Environnement de travail stimulant au sein d'une entité IT d'un grand groupe international. Poste à forte autonomie décisionnelle sur les choix techniques.
Offre d'emploi
DBA MongoDB Expert / PaaS Azure
AVA2I
Publiée le
Azure
Mongodb
PaaS (Platform-as-a-Service)
3 ans
Île-de-France, France
Dans le cadre du renforcement de ses équipes IT et de l’évolution de ses plateformes data vers le cloud, un grand groupe international recherche un DBA MongoDB expert pour intervenir sur des environnements PaaS Azure à forte criticité . Le poste est orienté expertise opérationnelle et technique . Il ne s’agit pas d’un rôle d’architecte , mais d’un référent MongoDB capable d’intervenir en profondeur sur l’administration, la performance et la fiabilité des bases de données. Objectifs du poste Garantir la disponibilité, la performance et la sécurité des bases MongoDB Assurer le maintien en conditions opérationnelles (MCO) sur des plateformes critiques Apporter une expertise MongoDB avancée aux équipes IT et applicatives Accompagner la montée en puissance des environnements Azure PaaS Missions principales Administration & exploitation Administrer et exploiter des bases MongoDB en environnement Microsoft Azure PaaS Assurer le MCO : performance disponibilité sécurité Optimisation & performance Réaliser le tuning avancé des bases MongoDB Gérer les index, la volumétrie et la réplication Analyser et corriger les problématiques de performance Anticiper les risques liés à la montée en charge Support & incidents Gérer les incidents complexes N2 / N3 Réaliser des diagnostics approfondis et du troubleshooting Apporter un support expert aux équipes applicatives Maintenance & bonnes pratiques Réaliser les montées de version et opérations de maintenance Mettre en place et suivre les bonnes pratiques : sauvegardes / restaurations supervision sécurité haute disponibilité Contribuer à l’amélioration continue des standards d’exploitation MongoDB Environnement technique MongoDB (expertise indispensable) Azure PaaS (Cosmos DB Mongo API / MongoDB managé) Cloud Azure Automatisation / scripting (PowerShell, Python ou équivalent) Supervision, sécurité, haute disponibilité Environnements critiques à forte volumétrie
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5119 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois