L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 177 résultats.
Offre d'emploi
Lead développeur .NET AZURE H/F
Publiée le
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Vous intégrez une équipe pluridisciplinaire de 15 développeurs (7 front / 8 back ou fullstack), 2 PO, 2 UI/UX sous la responsabilité d'un Directeur technique et de deux Lead développeurs. Vos missions sont les suivantes : Concevoir, développer, tester et maintenir des architectures et des services robustes pour garantir une fiabilité, une résilience et une évolutivité optimales, tout en assurant la sécurité. Participer activement à la définition de la vision architecturale pour soutenir la croissance rapide de notre base d'utilisateurs et s'adapter en conséquence. Concevoir et mettre en place des infrastructures cloud robustes et évolutives sur Azure. Développer et optimiser des pipelines CI/CD pour automatiser le déploiement et la gestion des applications. Collaborer étroitement avec les équipes de développement pour intégrer les meilleures pratiques DevOps dans le cycle de vie du développement logiciel. Contribuer à la définition de la stratégie cloud et DevOps de l'entreprise. Assurer une veille technologique sur les dernières innovations dans le domaine du cloud et des pratiques DevOps.
Mission freelance
développeur expérimenté intégration BIZTALK
Publiée le
Azure
Biztalk
6 mois
400-600 €
Paris, France
Télétravail partiel
Démarrage en janvier. Localisation Paris (possibilité de full remote en janvier après l'intégration) Activités principales : Maintenance : participer à la résolution de bugs et à la réalisation d’évolutions mineures Projet : mettre en place ou adapter de nouvelles interfaces pour connecter les applications du groupe Migration : participer à la préparation et l’implémentation de la migration de MS Biztalk vers MS Azure Compétences importantes: BizTalk Server 2020: BRE, Pipelines Azure Integration Services : Logic Apps, Service Bus, Event Grid, API Management Compétences : BizTalk Server 2020 : BRE, Pipelines Azure Integration Services : Logic Apps, Service Bus, Event Grid, API Management SQL Server 2019 Développement : C#, .NET, PowerShell, Azure CLI Protocoles et Standards : REST/JSON, SOAP/XML, XSLT, Liquid Outils : Visual Studio, Azure DevOps, Git, Postman
Offre d'emploi
DevOps Engineer (H/F)
Publiée le
Azure
CI/CD
Confluence
3 ans
38k-43k €
300-370 €
Osny, Île-de-France
Télétravail partiel
Nous recherchons un(e) Ingénieur DevOps IT expérimenté(e) pour renforcer notre équipe Infrastructure. Avec un rôle transversal entre cloud Azure , middleware et outillage CI/CD , vous contribuerez directement à la performance, la sécurité et la scalabilité de nos environnements applicatifs. 🎯 Livrables attendus Automatisation & CI/CD Documentation technique Sécurité & conformité 🛠️ Vos missions Garantir la performance, la scalabilité et la sécurité des applications sur Azure et dans la landing zone. Déployer, configurer et maintenir les applications de développement logiciel : Jenkins, Docker, Confluence , etc. Automatiser et simplifier les déploiements pour améliorer la fiabilité des applications cloud. Gérer et superviser l’environnement Azure : Monitoring, Defender, Backup, Firewall… Réaliser les mises à jour, migrations et montées de version des middlewares avec un impact minimal. Surveiller la consommation des ressources cloud, la performance et la conformité sécurité. Soutenir l’équipe infrastructure dans l’exploitation on-premise : VMware, réseau Cisco, stockage/serveurs Dell, Veeam.
Mission freelance
Data Analyst / Data Quality
Publiée le
Azure
Data quality
SQL
24 mois
Paris, France
Télétravail partiel
Profils et Métiers : Métiers : Data Management Fonctions : Data Analyst Spécialités technologiques : Reporting MDM (Master Data Management) Cartographie des données Data quality (qualité des données) Type de facturation : Assistance Technique (taux journalier) Compétences techniques : Technologies et outils : Azure (4 ans), SQL (4 ans), Power BI, GCP Méthodes / Normes : KPI Soft skills : Rigueur Secteur d'activité : Énergie Description et livrables de la prestation : Le prestataire intervient dans le cadre du déploiement d’un référentiel centralisé des identités pour garantir la qualité, l’intégrité et la fiabilité des données issues de systèmes variés, support aux processus IAM/IGA. Il couvre : Données RH et organisationnelles, interfaces, flux et pipelines d’ingestion Interactions avec les équipes Data, RH, Sécurité et Métiers Les prestations incluent : Collecte et intégration : cartographie, amélioration des flux, contrôle de conformité, transformation et enrichissement Analyse de la qualité : détection anomalies, rapports, causes racines, actions correctives Mise en qualité et gouvernance : règles de qualité, golden records, dédoublonnage, remédiations Reporting et indicateurs : tableaux de bord KPI, suivi de la qualité, rapports consolidés Contribution au projet IGA : alignement des données, tests, mise en production Livrables attendus : Documentation systèmes sources et flux Catalogue de données et dictionnaire des attributs Règles de qualité et d’unicité Rapports d’analyse (initial et périodiques) Données nettoyées, normalisées et documentées Tableaux de bord Data Quality (Power BI) Documentation technique et fonctionnelle Rapports d’avancement et d’activité
Mission freelance
Architecte/Techlead Python AWS
Publiée le
AWS Cloud
DevOps
Python
1 an
600-650 €
Paris, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Description détaillée des tâches qui constituent la mission • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Le Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Nous recherchons un profil Senior, proactif dans la mise en qualité de l’outil et le travail en équipe, avec une à minima une expérience en DevOPS. Il sera également très apprécié que la candidate maitrise certains des outils de l’environnement DevOps parmi les suivants : Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Le/la tech lead devra également maitriser la méthodologie de gestion de projet Agile – Scrum ainsi que l’outil de gestion de version GitLab. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. En termes de formation, deux types de profils peuvent également être très valorisés : • Un profil ingénieur issue de grande école française • Un profil ingénieur issue d’écoles spécialisées en développements informatiques et web en sont de bons exemples Environnement technique : Le projet fait à date appel aux technologies suivantes : • Python – FastAPI, SQLalchemy, Alembic pour les services back-end • PostgreSQL – PostGIS pour les services de base de données La bonne maitrise des technologies suivantes est donc requise : • Python 3.13 o FastAPI o SQLalchemy 2 o Pydantic 2 o Pytest • PostgreSQL 14 o PostGIS
Mission freelance
Architecte réseau et sécurité (F/H)
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)
6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau et Sécurité afin de rejoindre l'équipe Architecture Technique de la direction Infrastructures et Technologies et intégré aux équipes opérationnelles Missions A ce titre vous aurez la charge : - de concevoir le design des solutions Réseaux dans le cadre des programmes technologiques: - de définir la feuille de route de la transformation technologique associée - de garantir l'implémentation de la feuille de route en participant activement aux projets de déploiement - d'assister les équipes de production via votre expertise sur les solutions - d'identifier les problèmes et construire les plans de correction et d'amélioration L'ensemble de ces missions doivent être réalisées dans le respect des bonnes pratiques, des exigences de sécurité et de conformités De nature passionnée, curieuse, et persévérante, vous souhaitez intervenir dans le cadre de missions challengeantes et variées.
Offre d'emploi
Project Management Monitoring & Alerting
Publiée le
AI
AWS Cloud
Azure
3 ans
40k-45k €
400-450 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Au sein de la Direction Informatique , le Domaine « End to End RUN Connected Services & My Brand » est en charge de la qualité opérationnelle de l’ensemble de la chaîne de valeur couvrant les produits Groupe disponibles sur smartphones et l’ensemble de la chaîne d’outils et plateformes de connexion off-board / on-board du produit permettant de : - Configurer les composants ‘on-board’ lors de la fabrication du produit. - Activer les services à la livraison du produit. - Utiliser au quotidien les services connectés depuis un smartphone. - Collecter des données de santé du produit, des systèmes embarqués, des données d’usage du client, des métriques des systèmes d’assistance pour permettre d’améliorer la maintenance et la fiabilité du produit.. Le fonctionnement opérationnel de ces systèmes 24h/24 et 7j/7 est indispensable pour supporter le bon fonctionnement de l’industrie, des services commerciaux et l’usage de ses services, tout en accompagnant les transformations digitales indispensables. Dans ce contexte, la qualité et la performance des outils de monitoring est indispensable. Pour s’adapter à ces enjeux, le Domaine E2E RUN recherche une prestation de Project Management Monitoring & Alerting, dont les principales activités sont les suivantes : - Mise en place d’un plan d’actions pour amélioration la performance du monitoring - Mise en œuvre d’une stratégie robuste pour les outils de monitoring entre les solutions Grafana et Dynatrace - Assurer une totale couverture du monitoring sur le périmètre fonctionnel VS8 - Mise en place et suivi d’outils des outils de monitoring et alerting - Pilotage et optimisation de l’engagement des équipes du partenaire pour faire évoluer ces solutions - Mise en place de KPI de suivi projets / produits - Définir et préparer la stratégie d’introduction de l’IA
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Développeur Back-end Java AWS (H/F)
Publiée le
AWS Cloud
Gitlab
Java
12 mois
500-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Contexte Intégré à une Feature Team Agile , vous interviendrez sur des applications backend en production à forts enjeux de stabilité et de performance. La mission s’inscrit dans un contexte de maintien en haute performance des systèmes existants , avec un rôle clé dans la transmission de l’expertise métier vers les équipes en charge de la nouvelle plateforme. Missions Excellence opérationnelle & MCO Assurer le run et les évolutions des briques historiques Diagnostiquer et corriger des incidents de production complexes en environnement distribué Contribuer à un objectif de MTTR < 1h et à l’absence de régression critique Qualité & refactoring Appliquer des standards de qualité modernes (clean code, pyramide des tests) sur du code existant Augmenter la couverture de tests automatisés afin de sécuriser les livraisons fréquentes Transmission & knowledge management Documenter les règles de gestion complexes (tarification, billettique, spécificités régionales) Collaborer avec les équipes en charge de la nouvelle plateforme afin d’expliquer le fonctionnement actuel et faciliter la migration future Livrables Fonctionnalités backend conçues, développées et maintenues en environnement de production Corrections d’incidents et améliorations garantissant la stabilité applicative Code sécurisé et fiabilisé via des tests automatisés Documentation technique et fonctionnelle facilitant la transmission de connaissances Contributions continues à l’amélioration de la qualité et des pratiques de l’équipe Environnement technique Java : 11 / 17 (connaissance de Java 21 appréciée) Frameworks : Spring Boot, Spring Batch Architecture : services distribués, REST API, SOAP (legacy), MongoDB Cloud : AWS, Lambda CI/CD & outils : Git, GitLab CI, Jenkins, Sonar, Datadog Méthodologie : Agile (Scrum / Kanban), pratiques DevOps Compétences clés Obligatoires : Java, GitLab, AWS. Importantes : Spring Boot, Docker, API, connaissance des environnements de production. Intéressantes : Kotlin, NodeJS.
Mission freelance
Architecte AWS
Publiée le
AWS Cloud
1 an
500-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Architecte Architecte logiciel et applicatif / Cloud AWS. Secteur d'activité client final : énergie Contexte : Le consultant interviendra dans une équipe en tant qu’architecte applicatif et logiciel sur les technologies Cloud AWS. Son rôle d’Architecte Cloud consistera à assembler (Architecte ensemblier) de services applicatifs (souvent fournis par un service Platform sous forme de module Terraform) pour intégrer des frameworks logiciels, des services de stockage, des services d’IA, de l’outillage de IAC/CI/CD, d’outillage d’observabilité ou de résilience.
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles
Publiée le
BI
Data Lake
Microsoft Fabric
9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Offre d'emploi
DevOps Senior-UNIQUEMENT CDI
Publiée le
Argo CD
Automatisation
AWS Cloud
3 ans
40k-45k €
La Défense, Île-de-France
Télétravail partiel
PAS de SOUS TRAITANCE UNIQUEMENT CDI Notre client HCLTech renforce ses équipes et recherche un(e) Ingénieur DevOps Senior passionné(e) par les environnements CI/CD et les outils de déploiement à grande échelle. Vous interviendrez sur des plateformes critiques, au coeur d’environnements cloud complexes, avec un fort enjeu d’automatisation, de fiabilité et de performance. Vos missions : • Concevoir et faire évoluer des plateformes CI/CD • Administrer et supporter des outils de déploiement (XL Deploy, Argo CD) • Développer des scripts et automatisations • Gérer incidents, changements et problématiques techniques • Collaborer avec des équipes Dev, Infra et Cloud Environnement technique • Cloud : AWS, Microsoft Azure • CI/CD : Argo CD, XL Deploy • Conteneurisation : Docker • Scripting : Python, Shell Unix/Linux • Versioning : Git, GitHub
Offre d'emploi
Architecte Cloud Stockage NetApp
Publiée le
AWS Cloud
Azure
High Level Design (HLD)
41k-87k €
Île-de-France, France
Télétravail partiel
Nous recherchons des Architectes Stockage NetApp avec une expertise en Cloud(Azure ou AWS). Les profils basés au Maroc et intéressés par un poste en France seront les bienvenus. Missions: Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud), en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales : • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails
Offre d'emploi
Project Manager Digital – Communication
Publiée le
Microsoft Copilot Studio
Azure
Workplace
9 mois
40k-52k €
400-800 €
Le Havre, Normandie
Télétravail partiel
Project Manager Digital – Communication Interne & Digital Workplace 1. Contexte Dans le cadre d’un programme de transformation digitale à l’échelle d’un grand groupe international , le/la Project Manager Digital interviendra sur des projets stratégiques liés à la communication interne et à la digital workplace . La mission couvre notamment : Le pilotage et l’optimisation des outils digitaux de communication interne (réseau social d’entreprise, outils événementiels internes, plateformes collaboratives). La mise en place et l’évolution de la digital workplace du groupe , incluant : migrations de tenants Microsoft pour de nouvelles entités, optimisation de l’usage pour les entités existantes, intégration de solutions d’IA générative (Copilot), développement et déploiement d’agents métiers de niveau L2/L3. 2. Objectifs Communication interne Déployer et optimiser les outils digitaux afin de renforcer la cohésion interne, la fluidité des échanges et l’efficacité opérationnelle. Digital Workplace Piloter les migrations et optimisations des environnements Microsoft 365 pour les filiales. Pour les entités les plus matures (activités industrielles, logistiques, services) : piloter le déploiement et l’adoption de Copilot, optimiser l’usage des nouvelles fonctionnalités, intégrer et gouverner les agents métiers (L2 / L3). Accompagnement au changement Organiser la formation et le support utilisateurs. Faciliter l’adoption des nouveaux outils et processus. Dans ce cadre, le/la Project Manager supervisera une équipe d’environ 12 consultants externes , répartis sur les différents périmètres fonctionnels. Il/elle devra garantir : une compréhension fine des besoins métiers , la traduction de ces besoins en solutions concrètes et adaptées , l’alignement avec les processus de la DSI, la prise en compte des contraintes cybersécurité, architecture, opérations et infrastructures . L’objectif est d’assurer une intégration fluide, sécurisée et à forte valeur ajoutée , dans le respect des standards techniques et de sécurité du groupe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
3177 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois