L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 732 résultats.
Offre d'emploi
Senior Master Data Project Manager H/F (CDI)
Zenith Rh
Publiée le
Hauts-de-Seine, France
Dans un contexte de forte croissance et d'acquisitions internationales, nous recrutons un Senior Master Data Project Manager en CDI. Rattaché(e) à une équipe de 3 personnes, vous aurez pour mission de piloter les projets structurants liés aux données de référence tout en assurant un support business de haut niveau. Missions principales : Pilotage de projets : Cadrer, piloter et assurer la mise en place de projets Master Data complexes (intégration d'acquisitions, harmonisation de flux). Expertise SAP MDM : Garantir l'intégrité et la qualité des données au sein de l'environnement SAP MDM. Support Business International : Accompagner l'ensemble des pays du groupe dans leurs problématiques de gestion de données. Amélioration continue : Identifier les axes d'optimisation des processus de maintenance et de gouvernance des données.
Offre d'emploi
Développeur Python Senior (H/F)
QODEXIA
Publiée le
Python
React
10 jours
46k-48k €
440 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Notre client, leader mondial de l’énergie bas carbone et des services, s’appuie sur sa Business Unit Supply & Energy Management (S&EM) pour fournir une énergie fiable, durable et accessible. Dans le cadre de sa stratégie de décarbonation, il joue un rôle clé dans la gestion et L’équipe Renewable Energy Systems IS (RES IS) développe des outils critiques pour exploiter et piloter les actifs “verts”, avec un fort accent sur la collecte et l’analyse des données issues des centrales éoliennes et solaires. En rejoignant cette équipe composée de Business Analysts, Architectes SI, Développeurs et Data Analysts, vous contribuerez directement à : · l’optimisation des actifs renouvelables. · l’optimisation des actifs énergétiques · les stratégies de trading · l’intégration des énergies renouvelables
Offre d'emploi
Développeur Python / Citrix CVAD
MGI Consultants
Publiée le
Python
45k-61k €
Paris, France
1. Présentation de la mission Intitulé du poste : Ingénieur de Production Senior – Automatisation & Cloud Privatif Contexte : Dans le cadre de la refonte des offres Citrix sur un nouvel orchestrateur, le candidat aura pour mission de scripter les APIs et de réaliser les développements nécessaires à cette transformation. Il intégrera un collectif d'experts Citrix, en collaboration directe avec les équipes internes du Groupe. 2. Informations Contractuelles & Logistiques Lieu de réalisation : Paris Rythme de travail : Temps plein (100%) Présence sur site : 3 jours par semaine 3. Missions et Responsabilités Développement & Automatisation : Scripting d'APIs et développement d'outils d'automatisation pour le Cloud privatif (Terraform, Ansible). Ingénierie de Production : Intégration de nouvelles applications, packaging des composants, et définition des règles de gestion des systèmes d'exploitation. Tests Techniques & Recette : Conception de plans de tests, préparation des infrastructures de test, réalisation des diagnostics et rédaction des rapports de GO/NOGO pour la mise en production. Optimisation (FinOps & Performance) : Proposer des solutions pour réduire les coûts et améliorer les performances globales. Sécurité (DevSecOps) : Accompagner le développement selon les meilleures pratiques de sécurité et assurer une veille constante sur les menaces. MCO : Maintien en condition opérationnelle des infrastructures liées aux postes utilisateurs (Télédistribution, Messagerie, Annuaires). 4. Profil Recherché Niveau d'expérience : confirmé Compétences techniques impératives : Scripting PowerShell : Niveau Expert Scripting Python : Niveau Expert Citrix CVAD (Citrix Virtual Apps and Desktops) : Niveau Expert Outils souhaités : Terraform, Ansible (contexte Cloud/Orchestration). Langues : Anglais professionnel impératif. 5. Remarques Le candidat doit être un expert du scripting capable d'interagir avec des infrastructures complexes via du code, comprend les contraintes de la production (diagnostics de dysfonctionnement, packaging, homologation, MCO).
Offre d'emploi
Développeur Python (H/F)
Webnet
Publiée le
Python
34k-46k €
Lille, Hauts-de-France
Développeur Python (H/F) 📍 Localisation : Lille 📄 Type de contrat : CDI 💰 Rémunération : 34-46K Selon profil 🚀 Contexte Dans le cadre de notre développement, nous recherchons un(e) Développeur(se) Python disposant de solides compétences en DevOps et d’un intérêt marqué pour la data et/ou l’intelligence artificielle. Vous interviendrez sur des projets innovants à forte valeur ajoutée, mêlant développement, automatisation et exploitation de données. 🎯 Vos missions Concevoir, développer et maintenir des applications en Python Participer à la mise en place et à l’évolution des architectures techniques (CI/CD, cloud, conteneurisation) Automatiser les processus de déploiement et d’exploitation Collaborer avec les équipes data pour intégrer des modèles analytiques ou d’IA dans les applications Assurer la qualité du code (tests, revues, bonnes pratiques) Participer à la veille technologique (Python, DevOps, data, IA)
Mission freelance
Architecte Power BI / Data Engineer Senior – Expert Advisory (H/F)
HOXTON PARTNERS
Publiée le
Microsoft Power BI
Powershell
4 jours
Paris, France
Dans le cadre de plusieurs sujets techniques autour de Power BI, nous recherchons un Architecte Power BI / Data Engineer senior pour intervenir sur des problématiques à forte complexité technique. La mission consiste à apporter une expertise de haut niveau sur des sujets avancés tels que l’analyse et la documentation des API Admin V2 Power BI, l’identification des applications ne utilisant pas les fonctionnalités de gestion d’accès (Custom Message), l’expertise sur les capacités Power BI en mode Pay-As-You-Go, ainsi que l’analyse et la configuration des environnements Gateway (PowerShell, VMNET, réseau). Le consultant interviendra en tant qu’expert afin d’apporter des recommandations d’architecture, résoudre des problématiques complexes et accompagner les équipes sur des sujets techniques critiques. L’intervention se fera sous forme de sessions d’expertise ponctuelles de 2 à 4 heures.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
PRODUCT MANAGER CLOUD SENIOR H/F
AXONE BY SYNAPSE
Publiée le
AWS Cloud
Azure
Cloud
6 mois
Paris, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un(e) Product Manager Cloud Senior H/F afin d’accompagner un programme stratégique de convergence cloud. Le contexte est celui de la construction d’une factory cloud de nouvelle génération, pensée from scratch, mais devant composer avec un existant riche, hétérogène et déjà exposé à différents usages. Le poste vise à apporter la vision produit qui manque aujourd’hui entre les équipes techniques, les responsables produit et les entités métier/marketing. La personne attendue devra structurer les priorités de services, orienter les choix d’offres, assurer la cohérence des trajectoires de compatibilité avec le legacy et contribuer à positionner les futurs services dans un environnement interne complexe, multi-entités et fortement stratégique. Objectif et livrable: L’objectif principal est de définir, prioriser et cadrer l’offre de services cloud à construire au sein de la nouvelle factory, en articulation avec les équipes techniques, produit et marketing. Le consultant devra clarifier les services à lancer, leur ordre de priorité, leurs dépendances avec les offres existantes et les contraintes de compatibilité/migration. Livrables attendus: vision produit consolidée sur le périmètre cloud ; cartographie des services cibles et des services legacy à rapprocher ; matrice de priorisation des offres et fonctionnalités ; recommandations de positionnement, de cohérence catalogue et de trajectoire d’exposition API ; contribution au cadrage des interactions entre product management, product owners, architecture et équipes marketing. Compétences attendues: Le poste requiert une combinaison rare de vision produit et de compréhension profonde des environnements cloud. La personne devra savoir analyser un portefeuille de services, comprendre un paysage technologique complexe, arbitrer les priorités et dialoguer avec des profils d’architectes, d’ingénieurs et de responsables produit. Une bonne lecture des enjeux de compatibilité, de migration, de standardisation et de compétitivité est indispensable. Compétences techniques attendues : Product Management senior appliqué à des offres technologiques complexes ; Expérience sur des produits cloud / infrastructure ; Solide maîtrise d’au moins 3 des environnements suivants : IaaS, PaaS, CaaS (OpenStack, Kubernetes, OpenShift) et bonne connaissance des hyperscalers AWS, Azure, GCP ; Storage cloud et appliance (ex. NetApp) ; Bare metal et orchestration / provisioning des ressources bare metal ; Solutions de provisioning déclaratif (SOM/ROM) et intent-based (K8S/CRD, Crossplane, etc.) ; Gestion d’IP Fabric et architecture réseau niveau 2, avec appréciation de la connaissance de switches de vendors spécifiques ; IAM pour clients internes, externes et administration ; Outils cloud couches 3 à 7 : reverse proxy, forward proxy, WAF, NAT Gateway, firewall, etc. ; Outils Ops transverses : Vault, Bastion, DNS, NTP, chaînes CI/CD, etc. ; Composants de chiffrement : KMS, HSM, gestion des certificats ; Outils d’observabilité. Capacité à définir une stratégie produit , piloter une roadmap et produire des livrables structurés ( PRD, PRFAQ, user stories ) ; Analyse de legacy et stratégie de convergence ; Construction de catalogue de services / offres cloud ; Exposition de services et d’API ; Compréhension des environnements d’infrastructure, provisioning et automatisation ; Expérience des méthodologies agiles : Scrum, SAFe, Kanban ; Bilingue français / anglais impératif ; Formation Bac+5 (ingénieur, informatique ou business). Atouts complémentaires : Passage chez un cloud provider, un hébergeur, un éditeur SaaS ou un opérateur télécom.
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Superviseur Business Intelligence - Data Analyst F/H - Maîtrise d'ouvrage et fonctionnel (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Figma
Courbevoie, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Mission Freelance - Développeur sénior .Net - Bruxelles
KUBE Partners S.L. / Pixie Services
Publiée le
.NET
Python
Scala
1 an
350-550 €
Bruxelles, Bruxelles-Capitale, Belgique
Objectif du poste L'entreprise constitue une nouvelle équipe de développement afin de réécrire intégralement une application critique de pilotage énergétique en C#/.NET, après abandon total de l’ancien socle Python. Il ne s’agit ni de run, ni de maintenance legacy : la mission est entièrement orientée build, sur un socle moderne, dans un contexte temps réel à forte complexité. Le rôle peut varier selon l'expérience : développeur confirmé/senior ou tech lead / solution architect avec contribution hands-on. Contexte et environnement : La mission s’inscrit dans les produits dédiés au pilotage temps réel des actifs énergétiques, essentiels pour l’équilibrage du réseau : • aFRR Dispatcher : traitement toutes les 2 à 4 secondes des signaux du gestionnaire de réseau et calcul optimal de leur répartition vers les batteries, parcs renouvelables, etc. • TimeFlux : collecte et diffusion de données temps réel à faible latence. • GENCO : connexion avec les systèmes industriels SCADA. Vous rejoindrez une unité jouant un rôle clé, au sein de deux équipes d’architectes et développeurs collaborant étroitement avec les experts métier. Missions principales 1. Conception et développement en C#/.NET • Réécriture complète du code existant from scratch. • Conception et implémentation de services, API et microservices. • Architecture logicielle moderne, documentation, patterns propres. • Développement back-end, tests automatisés, intégration dans pipelines CI/CD. 2. Structuration d’une nouvelle équipe Les premiers arrivants auront un rôle fondamental dans : • la définition des standards et bonnes pratiques, • les choix techniques, • le partage de connaissances et la documentation, • les pair-reviews et le coaching selon séniorité. 3. Résolution de problèmes complexes On recherche des profils capables de : • analyser et abstraire, • prendre du recul, • challenger les besoins métiers, • proposer des solutions robustes plutôt que reproduire des recettes. 4. Leadership et architecture (selon séniorité) • Coaching technique d’une équipe de 3 à 5 développeurs. • Collaboration avec analystes et experts métier. • Conception d’architectures complètes : services, APIs, flux temps réel. 5. Activités opérationnelles associées • Découpage des évolutions en incréments agiles. • Mise en place et maintien des outils de build et de tests. • Participation aux tests, documentation utilisateur, support niveau 2. • Mise en place et suivi de l’observabilité : métriques, logs, alertes. Compétences techniques recherchées : Compétences essentielles • Excellente maîtrise de C# / .NET (Core). • Expérience en création d’applications from scratch. • Très bonne compréhension des architectures modernes (API, microservices). • Expérience en architectures event-driven : Kafka, Azure Event Hub, MQTT, Azure Service Bus. • Connaissances solides des systèmes distribués : scalabilité, résilience, ordering, idempotence, backpressure. • Cloud : Azure (ou AWS avec volonté de transition vers Azure). • Kubernetes en production : autoscaling, déploiements. • PostgreSQL, Redis, Azure Data Explorer (en test). • CI/CD : GitHub Actions, déploiement continu. • Observabilité : Grafana, Prometheus ou équivalent. Atouts • Connaissances Python (pour interaction avec d’autres équipes). • Connaissances éventuelles en Scala ou Rust. Soft skills recherchés • Communication claire et structurée. • Curiosité intellectuelle et capacité à sortir du cadre. • Capacité à expliquer et justifier ses choix techniques. • Autonomie, transparence, sens des responsabilités. • Leadership, pédagogie, esprit collaboratif. • Capacité à résoudre des problématiques complexes. • Humilité et esprit d’équipe.
Offre d'emploi
Ingénieur Infrastructure Cloud AWS-KBS
KEONI CONSULTING
Publiée le
Plan de reprise d'activité (PRA)
Run
Transport Layer Security (TLS)
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur Infrastructure Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur Infrastructure Cloud AWS est g arant du déploiement, de la configuration et de la maintenance opérationnelle des environnements cloud AWS, il assure la disponibilité, la performance et la sécurité des services d'infrastructure. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation Compétences clés ettendues : · Déploiement et administration de services AWS core (EC2, VPC, S3, RDS, Aurora, ECS) · Gestion réseau AWS : Subnets, NAT Gateway, Transit Gateway, Route53, ALB/NLB · Administration Kubernetes/EKS : mise à jour des nodes, AMIs, drivers, gestion des pods · Mise en œuvre des politiques de sécurité réseau (SG, NACL, WAF, Shield) · Supervision et maintien en condition opérationnelle (MCO/RUN) avec gestion des SLA · Mise à jour et patching des composants (OpenSearch, drivers DB, ingress controllers) · Gestion des sauvegardes, PRA et procédures de reprise d'activité · Chiffrement des données au repos et en transit (KMS, TLS) · Automatisation via scripts (Bash, Python) et IaC (Terraform) · Rédaction de documentation technique et de guides d'exploitation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2732 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois