Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake
Votre recherche renvoie 75 résultats.
Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)
VISIAN
Publiée le
Administration linux
Bash
Cloudera
1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Mission freelance
POT9104 - Un Senior Data Engineer Talend sur Vélizy-Villacoublay.
Almatek
Publiée le
SQL
6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients Un Senior Data Engineer Talend sur Vélizy-Villacoublay. Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Environnement Technique Data Engineering & Architecture • ETL : Talend, SSIS, Azure Data Factory (ADF) • Bases de données & requêtage : Microsoft SQL Server, SQL avancé • Modélisation : Data Warehouses, Data Marts, Data Cubes • Transformation data : dbt • Architecture moderne : Medallion Architecture • Moteurs distribués : Trino (ou équivalent) • Stockage objet : MinIO (ou équivalent) • Data Lake & ingestion via APIs, fichiers, flux batch Microsoft Stack • SQL Server Database Engine • SSIS, SSAS • Power BI Reporting Services (PBIRS) • Langages : SQL, DAX, MDX • Optimisation des performances et tuning avancé Cloud & Bonus • Nice to have : GCP (BigQuery, GCS, Dataproc) CI/CD & Industrialisation • Pipelines CI/CD automatisés • Azure DevOps, GitLab • Déploiement, intégration continue, tests automatisés • Qualité de code, orchestration, build & release automation
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Offre d'emploi
Ingénieur Data / Data Scientist - Secteur Aéronautique (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Python
SQL
37k-43k €
Marignane, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform
Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD
3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Mission freelance
Un Développeur Senior Python à Paris
Almatek
Publiée le
Python
3 mois
340-370 €
Paris, France
Almatek recherche pour l'un de ses clients, Un Développeur Senior Python à Paris Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Offre d'emploi
Directeur de projet technique - Lyon
VISIAN
Publiée le
Chef
Direction de projet
3 ans
60k-70k €
600-650 €
Lyon, Auvergne-Rhône-Alpes
Contexte Au sein de la Direction des Systèmes d’Information d’un grand groupe, vous intervenez dans le cadre d’un programme stratégique de transformation visant la modernisation d’une plateforme de données à grande échelle. L’environnement est multi-équipes et multi-sites, avec des enjeux forts de performance, de montée en charge, de fiabilité et d’alignement avec les besoins métiers. Mission principale Assurer le pilotage transverse d’un programme de transformation technique portant sur la migration et l’évolution de plusieurs plateformes data, en garantissant la cohérence globale, la maîtrise des risques et la fluidité des interactions entre équipes. Responsabilités Pilotage de programme Planifier et coordonner les différents chantiers techniques Synchroniser les équipes impliquées (data, cloud, architecture, exploitation, sécurité…) Assurer le suivi opérationnel et le reporting à différents niveaux Contribuer au cadrage et au suivi budgétaire Garantir le respect de la trajectoire globale de transformation Gestion des projets de migration Accompagner la migration de plateformes data existantes vers de nouvelles solutions Superviser l’évolution d’une plateforme Data Lake et d’architectures orientées microservices Veiller à la performance, la scalabilité et la robustesse des solutions Coordination des équipes Faciliter la collaboration entre équipes techniques et managers Identifier rapidement les risques, blocages et écarts Proposer des actions correctives adaptées Soutenir la montée en maturité d’équipes récentes Suivi et gouvernance Définir et piloter des indicateurs de performance (KPI) pertinents Produire des tableaux de bord d’avancement Assurer la visibilité globale du programme auprès du management Sécuriser la trajectoire globale plutôt que l’optimisation locale Environnement technique Plateformes de données et Data Lake Traitements batch et temps réel Architectures microservices Technologies Big Data (ex. Spark, Scala) Technologies backend (ex. Java) Environnements cloud ou hybrides Outils de streaming (ex. Kafka) Profil recherché Compétences techniques Solide expérience en pilotage de projets techniques complexes Bonne compréhension des architectures data et cloud Expérience des programmes de migration ou de transformation IT Capacité à interagir avec des experts techniques variés Compétences comportementales Excellente communication et leadership transversal Forte autonomie et capacité d’adaptation Esprit d’analyse et de synthèse Orientation résultats et gestion des risques Capacité à entrer rapidement dans des sujets complexes
Offre d'emploi
FinOps Cloud / Profil habilitable
ematiss
Publiée le
Cloud
FinOps
3 mois
Paris, France
CONTEXTE : Au sein de la Direction de la Transformation Numérique du client et sous la responsabilité du Chef du Bureau de l’Architecture et de la Cohérence des Infrastructures à la sous direction des architectures sécurisées, l’expert(e) technique en processus financiers du Cloud ou FinOps agit comme un levier de pilotage économique du Cloud grâce à sa maîtrise des outils de billing, garantissant la soutenabilité des dépenses pour la direction, la transparence des coûts et l’efficience de l’usage des ressources pour les entités clientes. ACTIVITES PRINCIPALES : Développer et maintenir des modèles de coûts du Cloud : Grâce à sa maîtrise des environnements Cloud et à sa compréhension fine des différentes offres (IaaS OpenStack, S3, GPU, OpenShift…), le FinOps identifie précisément les inducteurs de coûts (vCPU, RAM, Stockage Bloc et Objet etc.) et les traduit dans des modèles de facturation capables de s’adapter aux évolutions du catalogue de service. Il fait évoluer les normes de gestion budgétaires et les mécanismes de refacturation internes permettant de valoriser la consommation des ressources tout en s’assurant de leur alignement et de leur conformité avec les recommandations tarifaires. Réaliser des tableaux de bord et produire des reporting L’expérience requise avec les outils de collecte, d’automatisation et d’analyse de données (API, scripts, data lakes, Grist, Python, SQL etc.) doit permettre au FinOps d’agréger facilement l’ensemble des consommations en ressources des clients puis de les segmenter en fonction du projet ou de la ressource pour obtenir une allocation précise des coûts et des tableaux de bord et reporting ad hoc. Ces travaux enrichiront ceux de l’équipe chargée de mettre à disposition des clients des métriques de consommation dans la Console d’administration. Optimiser le capacity planning avec l’IA Le Finops consolide et fiabilise les outils existants de capacity planning en mettant en place des modèles prédictifs basés sur l’IA permettant d’anticiper les patterns d’usage des clients et donc les dépenses à engager. En outre, il anticipe les pics de charge et optimise les prévisions budgétaires. Diffuser les bonnes pratiques FinOps à l’échelle de la sous-direction Il travaille en étroite collaboration avec les différentes équipes en apportant une assistance concrète dans la définition et la mise en œuvre des actions de modernisation de la fonction financière. Il est force de proposition pour intégrer les contraintes financières dans les choix techniques et opérationnels des différents acteurs concernés. Il participe à une maîtrise des coûts conformes aux prévisions budgétaires et peut le cas échéant contribuer aux négociations avec les fournisseurs. CONTRAINTES 1-A minima une expérience précédente en tant que FinOps, de préférence dans un environnement Cloud. 2- Doit posséder des bases OpenStack. Durée : 3 mois renouvelables
Mission freelance
Architecte Sécurité Cloud Azure & Active Directory (H/F)
TDS
Publiée le
Active Directory
Azure
Azure Synapse
1 an
550-750 €
Île-de-France, France
Dans le cadre de la transformation digitale mondiale de l’entreprise, vous rejoignez l’équipe Global Information Cyber Security. Vous intervenez au cœur des enjeux de sécurisation du Cloud, en particulier sur l’écosystème Azure et les plateformes Data / IA. Votre rôle est clé pour définir et garantir une architecture sécurisée, scalable et résiliente, en accompagnant les projets stratégiques du Groupe. Vos missions principales En tant qu’Architecte Sécurité Cloud, vous aurez pour responsabilités : D'agir en tant qu’expert en sécurité des données (Data Security Subject Matter Expert) sur l’architecture, la conception et la configuration des solutions Définir des architectures de données sécurisées, scalables et résilientes (Cloud & On-Premise) Réaliser des évaluations de sécurité des architectures et services Azure Contribuer à la définition des bonnes pratiques, de la gouvernance et des processus de sécurité Accompagner les entités métiers et IT dans le déploiement de solutions sécurisées Supporter les régions et Business Units dans la migration vers le Cloud public Évaluer les risques de sécurité et définir les mesures adaptées avant mise en production Analyser les demandes métiers/IT impactant la sécurité et proposer des plans de remédiation Définir les exigences de sécurité pour les projets IT, notamment : Intégration cloud Plateformes Data / IA Identités digitales Examiner les services Azure et formuler des exigences conformes aux standards IS&T Rédiger et déployer politiques, standards et guides de sécurité Piloter des projets de sécurité Cloud : Cadrage des besoins Sélection de solutions Implémentation Négociation fournisseurs Compétences techniques : Solide background technique : réseau, systèmes, bases de données, applications Bonne connaissance des environnements Cloud Azure Connaissance des services Data Azure appréciée : Azure SQL, Synapse, Data Lake, Power BI, etc. Connaissance des plateformes IA Azure appréciée : Azure OpenAI, Databricks, Azure ML, Cognitive Services, etc. Sécurité & gouvernance : Maîtrise des méthodologies d’analyse de risque (ISO 27005, EBIOS…) Connaissance des standards de sécurité de l’information Certifications ou formations Cloud (AZ-500, AZ-30x, SANS SEC545) et sécurité de l’information (ISO 27001, CISSP, CISM) sont appréciées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
75 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois