L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 945 résultats.
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Architecte Domaine Data - Azure (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-680 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Résumé : Vous rejoignez notre client pour prendre le Lead Technique sur votre domaine. Vous interviendrez pour mettre en place différents environnements et services en cohérence avec l’architecture globale. Responsabilités : A ce titre, vous serez en charge de : Définir des architectures avec un haut niveau de qualité, une valeur métier pertinente et une maintenabilité à long terme, en collaboration avec les équipes Data (DPO, Data Analysts, Data Engineers, Data Scientists, Architectes Data) Fournir un leadership technique, participer aux efforts de développement et représenter l’ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes, en charge de superviser les processus de gestion des données et d’apporter conseils et orientations aux équipes de développement. Assurer la conception et rédiger la documentation des solutions de votre domaine. Soutenir le DPAO dans le traitement des demandes de l’Area Manager Définir la roadmap et accompagner les équipes dans la priorisation de leur backlog Veiller en permanence à l’alignement des produits avec l’architecture globale Vous avez de l’expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout, en tenant compte de l’architecture d’entreprise et des standards de l’industrie. Vous êtes habitué à concevoir, documenter et maintenir des modèles de données logiques et physiques. Must Haves : Une formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data Votre expérience de 8 ans minimum sur un poste similaire en tant que Data Architecte Votre expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout Votre expertise des services Azure Analytics (ADLS, SQL DB, ADF, Power BI) Votre fort leadership technique et votre capacité à définir et piloter des roadmaps Vos excellentes capacités de communication en français et en anglais (Niveau Courant C1) Compétences en leadership technique. Nice to Haves : Votre connaissance du secteur industriel Vos certifications Azure Autres détails : Date de démarrage : ASAP Localisation : Lyon (69). Dans le cadre de vos fonctions, vous pourrez bénéficiez de 2 jours de télétravail par semaine
Offre d'emploi
EXPERT Snowflake
EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake
1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Offre d'emploi
Ingénieur DevOps/SRE
bdevit
Publiée le
AWS Cloud
CI/CD
Dynatrace
36 mois
Île-de-France, France
Contexte : Intégré(e) à une équipe Plateforme / Production / Cloud, vous contribuez à la fiabilisation, l’industrialisation et l’automatisation des plateformes applicatives (on-premise et cloud), dans une logique DevOps & SRE . L’objectif est de garantir la disponibilité des services bancaires tout en améliorant continuellement la résilience, la performance et l’observabilité des systèmes. Missions Principales : - Maintien en conditions opérationnelles des plateformes critiques et des clusters Kubernetes on-premise (OpenShift) et managés (AKS / EKS / GKE) ; - Administration, optimisation et gestion de la haute disponibilité, scalabilité et capacity planning des environnements Kubernetes ; - Gestion des incidents majeurs, analyses RCA et suivi des SLA / SLO / SLI ; - Industrialisation et automatisation des déploiements via CI/CD ; - Mise en œuvre de l’Infrastructure as Code ( Terraform, Ansible, Helm ) ; - Mise en place et optimisation du monitoring et de l’observabilité ( Prometheus, Grafana, Dynatrace, ELK ) ; - Sécurisation des environnements (RBAC, Network Policies, gestion des secrets) ; - Contribution aux exigences et standards de sécurité & conformité bancaire.
Mission freelance
Tech lead Devops Azure Legacy Sofia Antipolis / Nice 500 e par jour
BI SOLUTIONS
Publiée le
Azure DevOps
Legacy System Migration Workbench (LSMW)
2 ans
340-500 €
Nice, Provence-Alpes-Côte d'Azur
Tech lead Développeur Devops Azure Legacy Sofia Antipolis / Nice 500 e par jour Assurer le relais technique avec les équipes DevOps et Legacy pour les livraisons en pré-production et production Résoudre les blocages liés à l’écosystème Azure / Legacy (pipelines, monitoring, interconnexions) Définir ou réaliser des Proof of Concept pour améliorer les outils ou le cadre technique Préparer et présenter les revues techniques de fin de sprint Encadrement et accompagnement technique Veiller à la qualité et à la mise à jour des documentations techniques Soutenir l’équipe pour le débogage et la résolution d’anomalies complexes S’assurer du respect des normes de codage, des revues de code et des bonnes pratiques Valider les conceptions détaillées sur les périmètres Azure et Legacy Transversalité et support opérationnel Garantir un niveau de qualité homogène entre les différents environnements Apporter un soutien sur des problématiques DevOps, conception, livraison ou debugging Contribuer à l’optimisation des chaînes CI/CD (notamment Azure DevOps) Favoriser la coordination entre les équipes Build et TMA Accompagner et conseiller les équipes projet et les clients internes sur les orientations techniques Participer à la mise en place d’automatisations (tests, industrialisation DevOps) 400 e par jour Sofia Antipolis / Nice
Offre d'emploi
DBA confirmé Mongo DB - PAAS Azure
SYNAPSYS IT
Publiée le
Azure
Mongodb
3 ans
70k-88k €
550-630 €
Colombes, Île-de-France
Nous recrutons un(e) DBA Expert(e) MongoDB –PaaS Azure (H/F) Paris / Île‑de‑France – Télétravail partiel Démarrage : ASAP Le contexte Nous renforçons notre équipe Data & Cloud dans un contexte de modernisation massive et de migration vers des services managés Azure . Nous recherchons un DBA MongoDB confirmé ou expert , capable d’évoluer dans des environnements critiques, distribués et orientés vous aimez les architectures Cloud, l’optimisation de bases NoSQL et les environnements PaaS à grande échelle, cette mission est faite pour vous. Vos responsabilités Administrer et optimiser les environnements MongoDB (replica sets, sharding, indexation, performance). Gérer les bases en mode PaaS Azure : Cosmos DB API Mongo, MongoDB Atlas. Assurer le MCO , la haute disponibilité et le capacity planning. Mettre en place les bonnes pratiques de sécurité : RBAC, chiffrement, Private Endpoints, Key Vault. Superviser les environnements via Azure Monitor / Log Analytics / Atlas Monitoring . Participer aux projets de migration vers Azure et aux évolutions d’architecture Cloud. Automatiser les déploiements (Terraform, Bicep, CI/CD). Documenter, standardiser et accompagner les équipes internes.
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Mission freelance
Data Scientist IA/Machine Learning
Sapiens Group
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python
12 mois
420-470 €
Hauts-de-France, France
1. Innovation et veille technologique Assurer une veille active sur les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative). Identifier les technologies pertinentes pour faire évoluer les systèmes de recommandation. Proposer des approches innovantes adaptées aux enjeux métier. 2. Conception & expérimentation Développer des Proof of Concept (PoC) et des Minimum Viable Products (MVP) robustes. Tester la faisabilité technique et la performance des nouvelles approches algorithmiques. 3. Analyse de données & modélisation Explorer et analyser des données complexes (structurées et non structurées). Identifier des patterns et insights à forte valeur ajoutée. Concevoir, entraîner et évaluer des modèles ML adaptés aux problématiques métier. 4. Collaboration transverse Travailler en étroite collaboration avec les équipes métiers, les Product Owners et l’équipe transverse (AAAI). Documenter les choix techniques et assurer la diffusion des connaissances. 5. Industrialisation & amélioration continue Collaborer avec l’équipe AI Capabilities pour intégrer les modèles dans les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’amélioration continue des solutions IA déployées. 🛠️ Livrables attendus Algorithmes de Machine Learning opérationnels Documentation et explicabilité des modèles Scénarios prédictifs Recommandations techniques et data
Mission freelance
Ingénieur de production Azure API Gateway
emagine Consulting SARL
Publiée le
Azure
Gateway
3 mois
Île-de-France, France
Description • Création et mise en œuvre de la solution APIM (Azure) • Accompagnement et mises en œuvre des solutions MQ Séries, Confluent Cloud Kafka • Création et mise en œuvre d’une plateforme Talend (Cloud) Livrables • Plateforme APIM (Azure) • plateforme Talend (Cloud) • Documentations d'exploitation Compétences HARDSKILLS o Expertise Azure API Gateway- plateforme & développement o Confirmé en environnements Cloud o Confirmé en Architecture Middleware o Connaissance d’Azure Api Management o Connaissance de Talend Data Fabri c o Connaissances en outillage DEVOPS o Connaissances en Sécurité Compétences clés Obligatoire Expertise Azure API Gateway- plateforme & développement Important o Confirmé en environnements Cloud Confirmé MQ Séries
Mission freelance
Développeur Java / Kafka / GCP
Sapiens Group
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
12 mois
420-450 €
Hauts-de-France, France
Missions principales Concevoir et développer des applications backend robustes en Java Concevoir et maintenir des pipelines de données sur Google Cloud Platform (GCP) Manipuler et structurer des Data Sets volumineux Développer des flux de données temps réel via Kafka Concevoir et optimiser des bases MongoDB Exploiter et analyser les données via BigQuery Participer aux choix d’architecture technique Garantir la performance, la scalabilité et la sécurité des systèmes Mettre en place les bonnes pratiques (tests, CI/CD, monitoring) 🛠 Compétences techniques requisesLangage & Développement Excellente maîtrise de Java Connaissance des frameworks type Spring Boot (fortement apprécié) Cloud & Data Solide expérience sur GCP Maîtrise de BigQuery Bonne compréhension des architectures data (Data Lake, Data Warehouse) Bases de données MongoDB (modélisation, optimisation des requêtes) Streaming & Messaging Kafka (architecture event-driven, streaming temps réel) Data Manipulation, structuration et optimisation de Data Sets Gestion de volumes importants de données
Mission freelance
INGENIEUR INFRASTRUCTURE CLOUD AZURE
PROPULSE IT
Publiée le
Azure
Cloud
Infrastructure
24 mois
200-400 €
Saclay, Île-de-France
Nous recherchons un(e) Ingénieur Cloud Azure pour renforcer les équipes IT de notre client. Rattaché(e) au Responsable de Production Informatique, vous intervenez au cœur des différents projets Cloud du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le Responsable de la Production Informatique et le DSI, votre mission consiste à : Mise en place et intégration dans une architecture cloud - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant l'infrastructure Cloud - Garantir la fiabilité, la performance et la qualité des services Cloud déployés - Assurer le rôle d'expert technique et fonctionnel sur les projets de mise en œuvre des solutions de sécurité de Microsoft 365 (Azure Information Protection, Microsoft Intune, Cloud App Security, Azure Sentinel...) - Rédiger et mettre à jour les documents de référence Administration et Maintien en condition opérationnelle - Maintenir en condition opérationnelle les infrastructures cloud en diagnostiquant les pannes et les dysfonctionnements - Piloter la maintenance évolutive et corrective en fonction des grandes évolutions technologiques - En tant que référent technique, assurer la formation des autres intervenants de l'équipe, le suivi des éléments de reporting et de la bonne application des modes opératoires - Assurer une veille technologique sur les solutions Microsoft Azure ou concurrentes
Offre d'emploi
DevOps – Kubernetes / AWS - Montpellier
Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes
40k-45k €
Montpellier, Occitanie
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Offre d'emploi
Développeur SENIOR C# .NET backend Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
.NET
Azure
C#
3 ans
40k-60k €
400-550 €
Paris, France
🏭 Secteurs stratégiques : Asset Management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur sénior en c# qui maitrise Azure. Dans ce cadre, les taches qui seront proposées sont les suivantes : • Participation au cadrage des solutions à implémenter • Codage des US • Mise en place des pipelines CI/CD en collaboration avec l’infrastructure • Suivi de la recette, de l’UAT et de la production. • Rédactions de documentation Durée de la mission La mission est prévue pour 3 mois, renouvelable.
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelances : comment vous gérez votre admin au quotidien ?
- SASU IR - Prelevement sociaux
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
4945 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois