L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 110 résultats.
Offre d'emploi
Expert en solutions d’archivage et de conformité (H/F)
Publiée le
Dynatrace
Grafana
SMTP (Simple Mail Transfer Protocol)
3 ans
49k-65k €
450-570 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement d’une équipe Record Management au sein d’un pôle Digital Working (Département Infrastructures), nous recherchons un expert confirmé en solutions d’archivage et de conformité , intervenant sur un périmètre mondial. Missions Exploitation, maintenance et évolution des solutions d’archivage et de conformité Support de niveau expert et résolution d’incidents complexes Participation aux projets de migration de données d’archivage Contribution aux activités d’archivage légal, d’eDiscovery et de conformité réglementaire Compétences techniques requises Expertise sur Veritas Enterprise Vault (v12 & v14) et ses composants : Compliance Accelerator Discovery Accelerator eDiscovery Platform (eDP) Expérience sur Veritas Merge1 et Verba (implémentation, évolution, support) Maîtrise des environnements de messagerie interfacés avec les solutions d’archivage : Microsoft Exchange 2016 / Office 365 Microsoft Teams, Symphony Messageries de trading : Bloomberg, Refinitiv Messenger, ICE Chat Expérience des migrations d’archives, notamment via TransVault Bonne compréhension des enjeux d’archivage légal, d’eDiscovery et de conformité Connaissance des protocoles de messagerie ( SMTP ) Maîtrise d’outils de monitoring et d’observabilité : Grafana, Dynatrace Profil Expérience confirmée sur des environnements d’archivage et de conformité Capacité à intervenir dans un contexte international Anglais professionnel requis
Offre d'emploi
Service Delivery Manager
Publiée le
ITIL
ITSM
Maintien en condition opérationnelle (MCO)
12 mois
Île-de-France, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un Service Delivery Manager Objet de la prestation La prestation s’inscrit dans le cadre du maintien opérationnel des applications informatiques mises à disposition du personnel en s’appuyant sur les processus ITIL appliqués par l’entreprise : Piloter le processus de gestion des incidents, incidents majeurs, et crises : garantir une résolution rapide et efficace, assurer le suivi des SLA et coordonner les escalades. Superviser la gestion des changements : analyser les demandes, organiser les CAB, valider les mises en production. Suivre et analyser les problèmes majeurs et récurrents, piloter les plans d’actions pour prévenir leur réapparition. Fournir un reporting régulier sur la performance des processus (KPI, SLA, backlog). Être l’interlocuteur du service Process & Tools pour contribuer à l’amélioration continue des processus ITSM. Livrables Le prestataire devra fournir : - Les documents attestant la mise à jour effective dans les outils de suivi ITSM (ServiceNow, RIES, gestion de crise), y compris les historiques de modifications ou tout document de traçabilité exigé par notre client. - Toute actualisation de la documentation opérationnelle IT - Pour chaque livrable, un critère d’acceptation et une date de remise seront définis conjointement lors du lancement du projet. Savoir-faire du prestataire Le prestataire doit justifier d’une expertise avérée dans le domaine informatique, couvrant notamment les fonctions d’exploitation et d’assistance, avec des références sur des prestations similaires en contexte ITIL. Savoir-faire nécessaire à la réalisation de la prestation Certification SAFE - Connaissance des concepts de ML, de Generative AI, de RAG, de Corpus, de LLM, d’agent, d’assistant, de prompt, d’hallucination, d’AI model… - Savoir formuler des requêtes efficaces pour interagir avec les IA génératives et obtenir les résultats souhaités - Usage critique de l’IA en prenant en compte ses limites et ses biais. - Connaissance des exigences RGPD et des aspects éthiques en lien avec l’IA. La réalisation de la prestation nécessite : - Une maîtrise courante du Français et de l’Anglais en situation professionnelle. - Une connaissance approfondie des processus ITIL, idéalement justifiée par une certification ITIL. - Une expérience confirmée dans l’exploitation et la gestion d’infrastructures IT, idéalement dans des environnements complexes. - Une capacité d’analyse des incidents et problèmes complexes, ainsi qu’une aptitude éprouvée à piloter des plans d’actions correctifs. - Une expérience dans la coordination ou la gestion opérationnelle d’équipes IT. - La maîtrise des outils ITSM (ServiceNow, RIES, ou équivalents) et d’outils d’observabilité reconnus dans l’industrie. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Architecte calcul/Stockage et plateformes DATA
Publiée le
Architecture
Cloud
12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Mission freelance
Lead Site Reliability Engineer
Publiée le
AWS Cloud
Docker
Gitlab
12 mois
600-650 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de l’équipe SRE de la plateforme Paiement d’un grand groupe, notre client recherche un SRE Lead expérimenté. Votre rôle sera de garantir la fiabilité, la performance, la scalabilité et l’optimisation des coûts des infrastructures et applications Cloud. Missions principales Assurer la disponibilité, la performance et la supervision des applications (observabilité / monitoring) Analyser et résoudre les incidents critiques (N3) en garantissant le suivi et la communication avec les équipes internes Optimiser les coûts et l’usage des infrastructures Cloud (FinOps) Maintenir et faire évoluer les pipelines CI/CD (tests, sécurité, déploiements progressifs) Automatiser les opérations récurrentes et améliorer la résilience des systèmes Participer à la définition des architectures cibles et patterns d’infrastructure (sécurité, réseau, observabilité…) Collaborer avec les équipes Dev, Architecture et Support sur les évolutions & nouveaux services Rédiger et maintenir la documentation opérationnelle Assurer un rôle de leader technique et accompagner la montée en compétences des SRE
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Offre d'emploi
Développeur Full Stack ReactJS/NodeJS (H/F)
Publiée le
AWS Cloud
Datadog
Développement
3 ans
45k-55k €
500-550 €
Lille, Hauts-de-France
Télétravail partiel
DEMARRAGE : début décembre DUREE DE LA MISSION : 3 ans LOCALISATION : LILLE (59) TELETRAVAIL : 3 jours/semaine Contexte : Dans le cadre du développement de notre plateforme interne, nous recherchons un profil expérimenté en Platform Engineering avec une compétence en développement fullstack. Le consultant intégrera une entité dédiée à la conception, l’évolution et l’industrialisation des produits techniques à destination des équipes de développement et DevOps. Il interviendra en lien étroit avec les équipes techniques transverses et les équipes produit, dans un environnement agile et collaboratif. Une expérience significative (senior) en Platform Engineering est requise ainsi qu'en développement fullstack avec la capacité à travailler en transverse avec des équipes pluridisciplinaires Description : Participer à la définition et à la mise en œuvre des solutions techniques de la plateforme. Contribuer à la conception, au développement et à l’intégration des composants techniques. Développer des interfaces et des services backend pour les produits de la plateforme. Accompagner les équipes DevOps et développement via des ateliers techniques et des sessions de partage. Documenter les solutions mises en place et assurer leur maintenabilité. Livrables : Dossiers de conception technique Documentation technique et fonctionnelle Ateliers techniques avec les équipes internes Contributions aux composants de la plateforme Compétences techniques requises : Backstage (catalogue de services, plugins, intégration SSO) Kubernetes (orchestration, déploiement) Terraform (infrastructure as code) GitLab CI/CD (pipelines, automatisation) AWS (services cloud, sécurité, scalabilité) Datadog (observabilité, monitoring) Développement fullstack : React (front-end), Node.js ou équivalent (back-end)
Offre d'emploi
TECH LEAD IA
Publiée le
Google Cloud Platform (GCP)
MLOps
Vertex AI
6 mois
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Offre d'emploi
Architecte Système Cloud AWS
Publiée le
Architecture
AWS Cloud
Management
80k-85k €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Système Cloud AWS en CDI répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/ARCHI/4969 en objet du message Vos responsabilités Missions : Décliner la vision d’architecture système à l’échelle des produits et applicatifs de l'entité Intégrer les besoins métier dans la définition de la roadmap d’architecture de l'entité Assumer le rôle de Business Owner de l’entité plateforme et porter des besoins via le portfolio DSI Garantir la non-obsolescence du SI de l’entité, via une veille active et une stratégie de modernisation continue Collaborer étroitement avec les techs leads et leads dev pour s’assurer de la bonne mise en œuvre de la roadmap logicielle et technique Identifier et remonter les besoins en compétences nécessaires pour accompagner les évolutions d’architecture Participer à la définition, au cadrage et à l’évaluation des initiatives transverses (sécurité, observabilité, interopérabilité, etc.). Activités : Participer au cadrage des besoins portés par son entité, à travers des études d’architecture impliquant les parties prenantes clés (architectes d’entreprise, sécurité, PO/PM, leads tech /lead dev…) ; Contribuer à la construction du portfolio de son entité et représenter celui-ci dans les instances du portfolio DSI ; Porter des besoins techniques structurants (ex : monitoring, automatisation, outils de delivery), en assurant leur cadrage et leur priorisation ; Participer activement aux cérémonies agiles de l’entité (refinement, PI Planning, démonstrations…) ; Élaborer des dossiers d’architecture en lien avec les normes internes et le catalogue des composants homologués ; Être moteur dans les Communautés de Pratiques (CoPs) en partageant des retours d’expérience, bonnes pratiques et innovations ; Participer aux recrutements techniques. Gestion projets : Garantir la cohérence des infrastructures dans le cadre de l’urbanisation du SI Participer à la définition et à la mise en œuvre de la roadmap technique ; S’assurer de l’alignement avec la stratégie d’entreprise. Accompagner les équipes projets dès la phase de cadrage Participer aux comités d’architecture selon le sujet Apporter une expertise sur les choix d’infrastructure (on-prem, cloud, hybride) ; Valider les livrables techniques (dossiers d’architecture, plans d’exploitation…). Veille et amélioration continue : Suivre l’évolution des technologies (virtualisation, containerisation, cloud, sécurité…) Identifier des axes d’amélioration de l’existant (disponibilité, coût, performance) Participer à des communautés d’architectes (guildes, chapters, COPs…)
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Publiée le
.NET CORE
Apache Kafka
Architecture ARM
6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Mission freelance
Product Owner Cloud & FinOps
Publiée le
AWS Cloud
FinOps
Site Reliability Engineering (SRE)
12 mois
530-580 €
Saint-Denis, Île-de-France
Télétravail partiel
Dans le cadre d’un vaste programme de transformation technologique, notre client modernise ses infrastructures et renforce ses capacités Cloud, Observabilité, Automatisation et FinOps . Vous intégrerez une équipe Platform Engineering dont la mission est de fournir aux squads de développement internes des services permettant d’assurer la fiabilité, la performance et la maîtrise des coûts de leurs applications. Notre client recherche un Product Owner Technique Senior , orienté SRE/Cloud, capable de piloter une plateforme stratégique supportant des produits à forte volumétrie et exigences de disponibilité élevées. Missions Rattaché(e) à une plateforme interne dédiée, vos responsabilités s’articulent autour de 5 axes : Pilotage de la plateforme Résilience / Robustesse / FinOps Recueillir les besoins techniques et construire la vision produit Prioriser un backlog technique orienté fiabilité, sécurité et coûts Garantir l’adéquation des capacités de développement avec les enjeux de valeur Performance & optimisation continue Suivi des incidents et pilotage des actions post-mortems Définir et suivre les indicateurs clés : SLI/SLO, DORA, DevEx, KPIs FinOps, OKRs Proposer des optimisations basées sur la donnée (performance, coûts Cloud) Collaboration & communication transverse Travailler en proximité avec développeurs, SRE, Ops, architectes, managers Favoriser l’adoption et la compréhension de la plateforme au sein des équipes internes Vision stratégique & Roadmap Produit Définir les orientations techniques à moyen/long terme Construire une roadmap alignée sur les enjeux de fiabilité, scalabilité et maîtrise des coûts 5️⃣ Amélioration des pratiques internes Veille technologique SRE/Cloud continue Partage de bonnes pratiques, REX, benchmarks d’outils
Offre d'emploi
Experts AWS (Plusieurs postes)
Publiée le
Ansible
Architecture
AWS Cloud
12 mois
40k-65k €
500-650 €
Seine-et-Marne, France
Télétravail partiel
Experts AWS – Build, Run, Migration & Sécurité Dans le cadre d’un vaste programme de transformation Cloud, nous recherchons plusieurs Experts AWS pour intervenir sur des missions stratégiques de Build, Migration, Run, Supervision, Bases de données et Sécurité au sein d’environnements critiques et fortement industrialisés. Les consultants interviendront au cœur de la Cloud Platform Team et des équipes de production pour concevoir, automatiser, sécuriser et opérer les assets déployés sur AWS. 📍 Localisation : Villaroche (déplacements ponctuels) 🏠 Télétravail : possible 📅 Démarrage : 01/12/2025 ⏳ Durée : 6 mois renouvelables 🌍 Anglais courant requis 🔎 Profils recherchés Nous recherchons des experts AWS confirmés (4+ ans d’expérience) dans les domaines suivants : 1. Expert Outillage & Automatisation AWS Industrialisation des déploiements et du RUN AWS Terraform / CloudFormation / Ansible Pipelines GitLab CI/CD Automatisation Ops / OS Factory Maîtrise AWS MGN, AWS Systems Manager, Service Catalog 2. Expert Supervision & Observabilité AWS Mise en place et optimisation de CloudWatch, Dynatrace, Centreon Centralisation et analyse (ELK Stack) Définition des KPI, dashboards, alerting Automatisation de la remédiation 3. DevOps AWS Pipelines CI/CD sécurisés Déploiements automatisés (Terraform, Ansible) Haute disponibilité, scalabilité, tests intégrés Participation à la Migration Factory et à l’usine à AMI 4. SysOps AWS Exploitation et MCO d’infrastructures AWS Gestion incidents, PRA, sauvegardes, optimisation coûts/perf Monitoring & alerting (CloudWatch, Dynatrace, Centreon) Automatisation via SSM, Lambda, Terraform 5. Expert Bases de Données AWS RDS, Aurora, DynamoDB, Redshift Optimisation performance, sécurité, haute disponibilité Migrations on-prem → AWS CI/CD bases de données, Terraform, SSM 6. SecOps AWS Implémentation IAM, GuardDuty, Security Hub, Macie, WAF CSPM Prisma Cloud (Palo Alto) Analyse et traitement d’incidents sécurité Compliance : ISO 27001, CIS Benchmark, RGPD Intégration sécurité dans CI/CD et pratiques DevSecOps
Mission freelance
SRE/Ops Kubernetes & Cloud Privé
Publiée le
Argo CD
Cloud privé
Kubernetes
12 mois
550-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement stable, automatisé et performant pour la mise à disposition d’environnements de développement, le déploiement de modèles, et leur supervision en production. Dans ce cadre, l’équipe recherche un profil SRE / Ops expérimenté pour renforcer la fiabilité, la supervision et l’automatisation de la plateforme, en interaction directe avec les équipes de développement, d’architecture et d’infrastructure. Missions principales: En tant que Site Reliability Engineer / Ops , vous interviendrez au cœur de la plateforme et participerez à son évolution technique. Vos responsabilités clés : Administration et exploitation Gérer et maintenir les clusters Kubernetes on-premise Superviser les déploiements des applications et services de la plateforme Garantir la stabilité, la performance et la disponibilité des environnements Automatisation et industrialisation Développer et maintenir les pipelines d’automatisation via Terraform , ArgoCD et Argo Workflows Contribuer à la mise en œuvre et à l’amélioration des processus CI/CD Participer à la conception d’une infrastructure fiable, scalable et résiliente Supervision et observabilité Mettre en place et administrer les outils de monitoring et de logging (Prometheus, Grafana, Kibana) Créer des tableaux de bord pour suivre les performances et anticiper les dérives (drift, charge, erreurs) Participer aux actions d’amélioration continue (tests de charge, alerting, performance tuning) Support et collaboration Travailler en proximité avec les développeurs (Python, Go) pour optimiser les déploiements et intégrations Être le point de contact technique sur les sujets d’infrastructure et de fiabilité Contribuer à la définition des bonnes pratiques DevOps et SRE
Offre d'emploi
Directeur·trice des Systèmes d'Information / CTO
Publiée le
AWS Cloud
React
Sage x3
90k-100k €
Chambéry, Auvergne-Rhône-Alpes
Télétravail partiel
Rattachée·e au Directeur des Opérations (COO) et en lien étroit avec les équipes métiers, vous piloterez une DSI passée en quelques années de 10 à près de 40 personnes, couvrant aujourd’hui un périmètre complet : développement applicatif, infrastructure, sécurité, support utilisateurs, QA, DevOps et gestion de projets stratégiques. Dans ce contexte, vous aurez pour mission de consolider les fondations techniques et organisationnelles, accompagner la professionnalisation des équipes et soutenir la transformation numérique de l’entreprise dans une logique d’efficacité et de fiabilité. Les missions liées à ce poste seront les suivantes : 1. Vision, stratégie et gouvernance IT - Définir et piloter la stratégie IT alignée sur la feuille de route de croissance de l’entreprise. - Garantir la cohérence globale entre les infrastructures, les outils, les produits internes et les besoins métiers. - Structurer la gouvernance IT : superviser les comités de pilotage, la priorisation des projets, et assurer le suivi indicateurs de performance. - Être force de proposition auprès du comité de direction sur les choix technologiques et d’organisation. 2. Management et structuration des équipes - Encadrer et animer une équipe d'environ 40 collaborateurs (internes et prestataires), avec le soutien de managers intermédiaires. - Faire évoluer les pratiques vers une culture du service client interne, de la qualité et de la responsabilité individuelle. - Accompagner la montée en compétence des équipes dans un environnement agile et collaboratif. - Garantir un management équilibré entre proximité opérationnelle et exigence de résultats. 3. Assurance opérationnelle & sécurité - Assurer la disponibilité, la sécurité et la fiabilité de l’ensemble des systèmes d’information (continuité d’activité et gestion des risques IT). - Garantir le bon fonctionnement des systèmes au quotidien (ERP, CRM, outils collaboratifs…). - Piloter la migration cloud (AWS) et la modernisation des infrastructures. 4. Développement, innovation et transformation digitale - Piloter les projets de modernisation applicative basée sur des architectures orientées services - Superviser les programmes de refonte ERP (Sage X3), consolidation CRM (HubSpot) et plateforme data (Snowflake). - Réduire la dette technique et améliorer la qualité logicielle (CI/CD, tests, observabilité). - Accompagner les métiers dans la digitalisation des processus et la valorisation de la donnée. 5. Culture et accompagnement du changement - Promouvoir une culture d’humilité, de collaboration et d’exigence technique. - Encourager la transversalité entre IT, Data, produit et métiers. - Être un relais de la culture entrepreneuriale et collective de l’entreprise - Contribuer à maintenir une ambiance humaine et agile tout en assurant une conduite du changement organisationnel
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
110 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois