L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 127 résultats.
Mission freelance
Ops engineer - Data Factory (AWS, Databricks)
CAT-AMANIA
Publiée le
Amazon S3
AWS Glue
Databricks
1 an
100-450 €
Lille, Hauts-de-France
Objectifs et livrables Ta mission sera de Garantir la robustesse de la plateforme (DRP, PCA) Monitorer et prendre des actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails) Assurer le support et l'accompagnement sur S3, Glue, Unity Catalog Déployer de nouvelles ressources infra via Terraform et maintenir l'existant Etroite collaboration avec les ops engineer de notre team infra centrale et notre staff ops Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management) Déploiement de Unity catalog et activations de ses nouvelles features (lineage, managed tables etc.)
Mission freelance
Ingénieur Data senior
JobiStart
Publiée le
AWS Cloud
Python
1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Mission freelance
Consultant Senior Data – Référent Technique & Architecte Dataiku / Braincube
Signe +
Publiée le
Dataiku
12 mois
700 €
Malakoff, Île-de-France
Contexte Dans le cadre du déploiement et de l’exploitation des plateformes Dataiku et Braincube , le consultant interviendra comme référent technique et architectural au sein de la Data Factory. Il garantira la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise . Environnement technique Dataiku : Design Node, Automation Node, API Node, Deployer Node (AWS & On Premise C3) Braincube hébergé sur AWS (EKS), opéré par l’éditeur Écosystème data : AWS EKS, Snowflake, stockage, ingestion, restitution Environnement collaboratif : Teams, backlog, documentation centralisée Environnements : Dev / Pré-production / Production avec processus d’industrialisation Missions principales Assurer le rôle de référent technique et architectural Dataiku / Braincube Maintenir les standards techniques et assurer la conformité des usages et licences Gérer incidents, demandes et changements (RUN & BUILD) Piloter la performance des plateformes, définir et suivre SLAs et KPIs Construire et piloter la roadmap technologique Garantir sécurité, résilience, conformité (RBAC, chiffrement, RGPD) Coordonner les équipes France / Inde et les interfaces DSIC Participer à l’amélioration continue et à la gestion du plan de charge Contribuer à la gestion de l’obsolescence technologique Livrables attendus Offre de service (ServiceNow) Reporting et météo du service Guides de bonnes pratiques Dataiku / Braincube Supports de formation et d’onboarding Cartographie des flux et des modèles data Business model du service Compétences requises Expertise AWS (S3, EKS, EC2, IAM…) Maîtrise de Dataiku et bonnes connaissances Data / ML Ops Solide compréhension des architectures SI & data Sensibilité forte aux sujets de gouvernance et sécurité Capacité de documentation, vulgarisation et structuration de services Aisance dans des contextes internationaux (France / Inde) Profil recherché Consultant senior avec minimum 8 ans d’expérience Capacité à prendre un rôle transverse et structurant Autonomie, rigueur et posture de référent Nationalité française (obligatoire) Modalités Démarrage : courant février Fin de mission : 30/06/2026 (renouvelable) Télétravail : 2 jours / semaine Localisation : Paris / Malakoff + déplacements ponctuels (Châteaufort, Magny-les-Hameaux)
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Mission freelance
Administrateur système Stockage Mainframe Expert/ Anglais opérationnel (H/F)
Octopus Group
Publiée le
Administration système
Mainframe
Stockage
1 an
550-730 €
Montreuil, Île-de-France
Nous recherchons pour le compte de notre client dans le domaine bancaire, administrateur Système Storage au sein de la division Mainframe Delivery Platform de notre client. Contexte : Dans un environnement critique à forte volumétrie, votre mission sera de garantir la performance, la disponibilité et l'évolution des plateformes de stockage. Missions : Assurer les fonctions de support , de Mise en Condition Opérationnelle et de déploiements des produits de notre client sur l'ensemble de périmètre stockage du groupe (DFHSM, Ca1 Vantage…). Confirmé en administration Storage mainframe, vous contribuerez aux projets d'évolution robotique et d'optimisation de la capacité disques (DASD) et tapes (VTS) des plateformes z/OS de notre client. Faire une analyse de l'existant, proposer les améliorations, participer aux mises en œuvre des solutions validées, mesurer les gains de manière récurrente. Les différents environnements (dont des Sysplex et geoplex) exigent un haut niveau de fiabilité et de rigueur. Sur les fonctions Supports : la mission est de prendre en charge , analyser et résoudre tout type d'incidents en HO et HNO (Heures ouvrées et Heures Non Ouvrées), clôture des tickets et escalade vers Expertise si besoin . Elle nécessite également de faire le suivi des incidents, l'analyse des recurrences afin de proposer des actions préventives à mener. Sur les fonctions MCO : la mission est de garantir le bon fonctionnement des Infrastructures Disque et Robotique à l'aide des outils et de traiter des demandes unitaires d'allocation disque . Un suivi quotidien de la disponibilité des ressources fait aussi partie de la mission. Sur les fonctions de Déploiement : la mission est d'assurer la mise en production de solutions validées , le déploiement de RSU ou Correctifs sur les logiciels liés à l'activités Storage en respectant l'ensemble des jalons Business. Capacité à travaillera en mode projet : comprendre les besoins du Groupe, exprimer les contraintes techniques en langage fonctionnel, convaincre les clients et suivre l’objectif jusqu’à sa réalisation). Capacité à travailler en équipe, à réaliser de la documentation technique, du reporting. Environnement technique : Environnement : 70 partitions de production (monoplex / sysplex / geoplex) le plus souvent), 8 clients internes Groupes (Italie, France, Belgique) Hardware : Baies disques IBM DS8K / Virtual Tape Servers IBM / Robots IBM Produits : HSM / CA1 Vantage / GDPS
Offre d'emploi
Expert Stockage SAN N3+
VISIAN
Publiée le
Cisco
Pure storage
1 an
40k-45k €
400-520 €
Île-de-France, France
Contexte de la mission Dans le cadre de nos programmes de modernisation des infrastructures IT, nous recherchons un expert stockage SAN afin d’accompagner les projets de renouvellement des plateformes de stockage critiques. La mission s’inscrit dans un environnement à forte exigence de disponibilité, de sécurité et de performance, avec des volumes de données importants et des enjeux métiers sensibles. Objectifs de la mission Le consultant interviendra sur l’ensemble du cycle de vie des infrastructures SAN : installation, configuration, migration de données, sécurisation et maintien en conditions opérationnelles. Il apportera également une expertise de niveau avancé sur les incidents complexes et participera à l’amélioration continue des architectures existantes.
Mission freelance
Administrateur Système Stockage (N2)
Signe +
Publiée le
NetApp
12 mois
420 €
Paris, France
Dans le cadre du renforcement de l’équipe infrastructure, nous recherchons un Administrateur Système orienté stockage, intervenant en tant que référent N2. Le poste est majoritairement axé RUN, avec une forte implication dans la gestion opérationnelle des environnements de stockage. Missions principales Assurer le support N2 sur les infrastructures de stockage Gérer les incidents et les demandes (analyse, diagnostic, résolution, suivi) Escalader vers les équipes N3 si nécessaire et assurer l’interface technique Participer à la capitalisation des connaissances (documentation, procédures, bonnes pratiques) Contribuer aux projets d’évolution et d’amélioration des plateformes Garantir la disponibilité, la performance et la fiabilité des environnements de stockage Environnement technique ISILON NetApp SCALITY S3 (en option / apprécié) Profil recherché Expérience confirmée en administration de solutions de stockage Capacité à intervenir en tant que référent N2 Bonne compréhension des environnements d’infrastructure (systèmes, réseaux, sauvegarde) À l’aise dans un contexte RUN avec gestion d’incidents récurrents Capacité à documenter, formaliser et capitaliser les retours d’expérience Bon relationnel pour interagir avec les équipes N3 et les équipes projets
Mission freelance
consultant confirmé Google Workspace, Data & IA - 1303
ISUPPLIER
Publiée le
10 mois
350-435 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre de sa transformation digitale, notre client recherche un Expert Senior capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Objectifs et livrables Profil et Compétences Clés Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes. Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement. Profil et Compétences Clés Ce poste requiert une double compétence confirmée : une maîtrise technique avancée de l'écosystème Google et une vision fonctionnelle stratégique orientée métier. Compétences Techniques (Hard Skills) Google Workspace : Expertise éprouvée en Administration, Sécurité et Usages avancés. Data Stack : Maîtrise experte de Looker (développement LookML indispensable) et BigQuery (SQL avancé). Développement : Solides compétences en Google Apps Script et maîtrise de la plateforme AppSheet. IA Générative : Expertise technique sur Gemini (Prompt Engineering, configuration et intégration). Compétences Fonctionnelles & Soft Skills Analyse Métier : Capacité à traduire des besoins métiers complexes en solutions techniques performantes et pérennes. Pédagogie & Communication : Aptitude à vulgariser les concepts IA/Data auprès d'interlocuteurs non-techniques et à fédérer des communautés. Sensibilité RSE : Forte implication sur les sujets de responsabilité numérique (sobriété, droit à la déconnexion). Leadership Technique : Force de proposition pour challenger l'existant et impulser l'innovation. Livrables attendus Pilotage et Reporting : Dashboards Looker (Adoption, RSE, Performance o pérationnelle). Solutions Applicatives : Applications AppSheet et scripts d'automatisation déployés, documentés et maintenables. Dispositif IA : Supports de formation Gemini, référentiel de Prompts, roadmap d'animation du réseau ambassadeurs. Transformation Numérique : Stratégie et outils de migration des macros Excel critiques vers GWS. Documentation : Spécifications fonctionnelles, guides utilisateurs, procédures d'administration et d'exploitation.
Offre d'emploi
Architecte cloud Azure
OBJECTWARE
Publiée le
Azure
DevOps
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e architecte cloud azure devops. Vos missions seront : 🔹 Pilotage technique & encadrement Encadrement quotidien de l’équipe de développement. Revue de code, accompagnement technique et montée en compétence. Suivi des développements et respect des bonnes pratiques. 🔹 Conception & architecture Conception de solutions cloud basées sur des services managés (fonctions serverless, messaging, streaming, etc.) Participation aux choix d’architecture en lien avec les équipes d’architecture Mise en œuvre d’architectures orientées événements (event-driven) 🔹 Développement & intégration Contribution aux développements backend en environnement orienté objets Intégration avec une solution CRM d’entreprise et des APIs Participation à la mise en place de solutions robustes et scalables 🔹 Cloud & DevOps Utilisation et optimisation des services cloud Suivi des consommations et optimisation des coûts (FinOps) Gestion des pipelines CI/CD et des dépôts de code 🔹 Support & expertise Interface avec les éditeurs/partenaires sur les sujets techniques Diagnostic et résolution d’incidents complexes Support aux équipes techniques et métiers 🧰 Environnement technique Cloud : Plateforme cloud publique majeure CRM : Solution CRM d’entreprise Architecture : API, architectures orientées événements (messaging / streaming) Langages : Langages backend et frontend modernes DevOps : Outils de gestion de code et de pipelines CI/CD Services : Fonctions serverless, messagerie, stockage, monitoring, gestion des secrets
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Offre d'emploi
Architecte Openshift
OBJECTWARE
Publiée le
Openshift
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e architecte openshift. Vos missions seront : - Déploiement, configuration et le maintien des plateformes de conteneurisation (Docker / Kubernetes / Openshift) pour assurer l'isolation et la rapidité des applications. - La rédaction et le maintien des playbooks Ansible pour automatiser les déploiements et les configurations. - La participation au sien de l'équipe pour assurer le lien avec les équipes opérationnelles impliquées, les partenaires métiers pour tous les sujets autour des conteneurs. - La mise en place des politiques de sécurité, la gestion des vulnérabilités, et le contrôle d'accès aux conteneurs et s'assurer du respect des normes et réglementations en vigueur. - La maintenance préventive et curative des systèmes conteneurisés, le suivi des incidents, et la garantie de la disponibilité et la cohérence des services. - Le suivi des avancées technologiques en matière de conteneurs, de stockage et de sécurité pour proposer des solutions innovantes et renforcer la réactivité de la production. - Le respect de la gouvernance et les politiques du groupe et la coordination avec les partenaires mondiaux pour assurer l'alignement sur l'architecture et les principes IT.
Mission freelance
Référent Systèmes & Technologies de Stockage
Signe +
Publiée le
NetApp
6 mois
400-420 €
Paris, France
Assurer le rôle de référent technique sur les infrastructures de stockage, garantir leur disponibilité, leur performance et accompagner les projets d’évolution des plateformes. Missions principales Assurer le rôle d’expert technique sur les solutions de stockage de l’entreprise Administrer et maintenir les environnements de stockage (déploiement, configuration, mises à jour, capacity planning) Participer à la conception et à l’architecture des nouvelles infrastructures de stockage Gérer les incidents complexes et assurer le support niveau 3 Rédiger les standards techniques, procédures d’exploitation et bonnes pratiques Accompagner les équipes projets dans l’intégration des solutions de stockage Assurer la veille technologique sur les solutions de stockage et les architectures associées Compétences techniques requises Expertise sur les technologies de stockage enterprise Maîtrise des solutions : Dell EMC Isilon (PowerScale) NetApp Scality Bonne connaissance des environnements systèmes (Linux / Unix / Windows) Connaissances réseaux liées au stockage (SAN, NAS, protocoles NFS, CIFS, iSCSI, FC) Expérience sur les architectures haute disponibilité et PRA/PCA Connaissance des environnements objet type S3 (fort atout) Profil recherché Expérience confirmée en administration et architecture stockage Capacité à intervenir en expertise et à piloter des sujets techniques transverses Autonomie, capacité d’analyse et de résolution de problèmes complexes Bon relationnel pour coordination avec équipes infra, projets et sécurité
Offre d'emploi
Administrateur infrastructure - (H/F)
SWING-ONE
Publiée le
Administration réseaux
AWS Cloud
Linux
6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un administrateur infrastructure. Dans un environnement IT hybride et critique, vous assurez l’exploitation, l’évolution, la sécurité et la disponibilité des infrastructures on-premise et cloud. Vous intervenez sur des plateformes virtualisées VMware / VxRails / vSphere, des baies de stockage SAN/NAS, des environnements Linux et Windows, ainsi que sur des infrastructures cloud hybrides GCP et AWS, intégrées avec Microsoft 365 / Entra ID. MISSIONS PRINCIPALES : Administrer et maintenir les environnements virtualisés VMware vSphere / ESXi Exploiter et maintenir les infrastructures VxRails Administrer les baies de stockage SAN / NAS (performance, disponibilité, capacité) Administrer les environnements Linux (RedHat, Debian, Ubuntu…) Administrer Windows Server Administrer les environnements GCP et AWS Participer à l’architecture et à l’exploitation d’un SI hybride (on-premise / cloud) Administrer Microsoft 365 (Exchange Online, SharePoint, OneDrive, Teams) Gérer Entra ID (Azure AD) : identités, MFA, accès conditionnels
Offre d'emploi
Ingénieur Infrastructure H/F
Le Groupe SYD
Publiée le
Ansible
Bash
ClickHouse
45k-55k €
Paris, France
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Infrastructure H/F 📍 Lieu : Paris (75) 🏠 Télétravail : 3 jours sur site par semaine 📝 Contrat : CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur financier , engagé dans la modernisation, la sécurisation et l’industrialisation de ses plateformes Data à grande échelle. En tant qu’ Ingénieur Infrastructure tu interviens sur le maintien en conditions opérationnelles, l’évolution technologique et la performance d’environnements Data complexes (CDP 7.1.x, Hadoop, stockage distribué, ingestion API…). 🎯 Tu auras pour missions de : Tu auras pour missions de : Recueillir les besoins métiers. Développer l’ingestion (API) et concevoir les stockages (Ozone, Hadoop…). Automatiser les traitements (batchs/pipelines). Nettoyer, transformer et structurer les données. Documenter les bases et garantir la conformité RGPD. Assurer la maintenance corrective/évolutive. Déployer et industrialiser les modèles ML. Assurer validation, monitoring et robustesse. Participer au design, à l’installation et à la qualification des plateformes. Contribuer à l’industrialisation continue. Support aux équipes métiers/applicatives/infra. Communication régulière au chef de projet. Astreintes + interventions HNO. Amplitude équipe : 8h–19h. 🧰 Stack technique : Cloudera CDP 7.1.x : HBase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, Kerberos, LDAP Systèmes : RedHat 8, RedHat 9 Langages & DevOps : Python, Bash, Java, Maven, Gradle, Ansible, DevOps Stockage & Data : Ozone, Hadoop, Druid, Clickhouse Traitement & orchestration : Airflow, Flink, Trino, Starburst Containers : Openshift, Kubernetes (K8s), Cloudera Data Services Autres : écosystème Apache, automatisation, migration clusters Hadoop
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation électronique 01 : Rappel du calendrier !
- Seulement 25% de mes candidatures sont consultées
- Contactez +22951330333 Médium africain du retour d'affection rapide et efficace
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation electronique 2026
- amortissements véhicule acheté avant début d'activité
127 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois