L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 90 résultats.
Offre d'emploi
Administrateur Systéme Réseau H/F
Publiée le
75017, Paris, Île-de-France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Administrateur Systéme Réseau H/F C’est votre mission Vous êtes passionné·e par les environnements Linux, les infrastructures virtualisées et le MCO ? Ce poste est fait pour vous. En tant qu’Administrateur Système Linux + Réseau, vous êtes responsable de la disponibilité, de la fiabilité et de la sécurisation de notre plateforme virtualisée basée sur Proxmox, Kubernetes et CEPH. Côté build : Vous contribuez à la montée en puissance et à l’amélioration continue de notre infrastructure : Déployer et configurer des environnements virtualisés sous Proxmox. Automatiser la configuration et les déploiements via Ansible. Participer au déploiement et à l’évolution des clusters Kubernetes. Contribuer à l’architecture et à l’industrialisation des environnements. Mettre en place de nouveaux outils d’observabilité et d’automatisation. Côté run : Vous garantissez la disponibilité et la performance de la plateforme : Assurer le MCO N1/N2 des systèmes Linux, réseaux et services associés. Maintenir les VM, conteneurs et clusters en conditions opérationnelles. Gérer les tickets, incidents et demandes utilisateurs. Administrer et maintenir l’infrastructure de stockage CEPH. Appliquer les correctifs systèmes, mises à jour et hardening de sécurité. Surveiller l’état de l’infrastructure (monitoring, alerting). C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements techniques exigeants (Système / Réseau / Virtualisation). Vous aimez optimiser, fiabiliser et automatiser, sans jamais cesser d’innover. Vous cherchez un environnement où vos idées comptent et où la technique est un terrain d’expression. C’est votre expertise : Vous maîtrisez les environnements Linux avancés et les technologies d’infrastructure modernes : Linux (administration avancée) Docker / conteneurisation Kubernetes Ansible Proxmox CEPH Bonnes notions réseau (TCP/IP, firewalling, routage) C’est votre manière de faire équipe : Rigueur et sens des responsabilités Esprit d’équipe et communication claire Capacité à diagnostiquer, anticiper, proposer Autonomie, curiosité, et envie d'apprendre Réactivité face aux incidents C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un·e ingénieur·e d’affaires Un test ou un échange technique avec un·e de nos expert·e·s Un dernier point avec votre futur·e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 42 K€ à 45 K€ (selon expérience) brut annuel Famille métier : Système/ Devops/ Réseaux Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
TECH LEAD IA
Publiée le
Google Cloud Platform (GCP)
MLOps
Vertex AI
6 mois
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Mission freelance
Lead Site Reliability Engineer
Publiée le
AWS Cloud
Docker
Gitlab
12 mois
600-650 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de l’équipe SRE de la plateforme Paiement d’un grand groupe, notre client recherche un SRE Lead expérimenté. Votre rôle sera de garantir la fiabilité, la performance, la scalabilité et l’optimisation des coûts des infrastructures et applications Cloud. Missions principales Assurer la disponibilité, la performance et la supervision des applications (observabilité / monitoring) Analyser et résoudre les incidents critiques (N3) en garantissant le suivi et la communication avec les équipes internes Optimiser les coûts et l’usage des infrastructures Cloud (FinOps) Maintenir et faire évoluer les pipelines CI/CD (tests, sécurité, déploiements progressifs) Automatiser les opérations récurrentes et améliorer la résilience des systèmes Participer à la définition des architectures cibles et patterns d’infrastructure (sécurité, réseau, observabilité…) Collaborer avec les équipes Dev, Architecture et Support sur les évolutions & nouveaux services Rédiger et maintenir la documentation opérationnelle Assurer un rôle de leader technique et accompagner la montée en compétences des SRE
Offre d'emploi
Tech Lead SRE / Site Reliability Engineer (H/F)
Publiée le
Ansible
AWS Cloud
Docker
12 mois
50k-65k €
480-550 €
France
Télétravail partiel
Vous rejoignez la Platform Team au sein de la Tribe Paiement de la Digital Factory en tant que Tech Lead SRE . Votre rôle : piloter la vision technique SRE, garantir la fiabilité des plateformes de paiement, et assurer la performance, la résilience et la scalabilité des environnements cloud. Vous serez le référent technique, le mentor de l’équipe SRE, et un acteur clé dans la définition des standards d’ingénierie, DevOps et SRE. Leadership & Vision technique Superviser l’ensemble des activités SRE de la Platform Team. Porter la vision d’architecture résiliente, scalable et moderne (cloud, conteneurs, automatisation). Définir les standards SRE , bonnes pratiques DevOps et orientations techniques : CI/CD, observabilité, sécurité, gestion des incidents. Encadrer et développer l’équipe SRE (mentorat, pair programming, formation). Architecture & Fiabilité Concevoir et faire évoluer l’architecture cible de la plateforme Paiement avec les architectes et Tech Leads. Définir et maintenir les blueprints d’architecture : réseau, sécurité, déploiement, observabilité. Participer aux choix technologiques et à l’urbanisation cloud (AWS). Exploitation & Automatisation Garantir le maintien en condition opérationnelle (MCO) de l’ensemble des applications Paiement. Optimiser les performances, la sécurité, la stabilité et la scalabilité des environnements. Construire et améliorer les pipelines CI/CD (GitLab CI) : tests, scans sécurité, qualité, déploiements progressifs. Automatiser les opérations répétitives (scripts, jobs, workflows). Support technique & gestion des incidents Analyser, corriger et suivre les tickets (ServiceNow, Jira) de niveau 3. Réaliser les opérations de maintenance, rattrapages d’incidents et opérations bulk. Participer aux handovers des nouvelles fonctionnalités en production. Produire des rapports techniques sur la performance et les incidents. Observabilité & Monitoring Mettre en place, maintenir et améliorer les dispositifs d’observabilité (Splunk Observability). Réagir rapidement en cas de panne, diagnostiquer les causes et proposer des solutions pérennes. Suivre l'état de santé des applications, lever les alertes et réaliser les premières analyses. FinOps & optimisation des ressources Suivre les coûts AWS, détecter les dérives et proposer des optimisations. Contribuer à une démarche FinOps structurée pour un usage maîtrisé du cloud.
Offre d'emploi
Architecte calcul/Stockage et plateformes DATA
Publiée le
Architecture
Cloud
12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Offre d'emploi
Platform Reliability Engineer Bilingue sur le 78
Publiée le
Azure
Datadog
Kubernetes
3 mois
Yvelines, France
Je recherche pour un de mes clients un Platform Reliability Engineer sur le 78 Mission: La mission proposée s’inscrit dans une approche SRE et DevOps. À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité, l’exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : • Vous êtes responsable de l’intégration et de l’exploitation opérationnelle des applications de la plateforme. • Vous vérifiez la conformité des livraisons avec nos standards (conventions de nommage, qualité des logs, documentation, monitoring). • Vous relisez et améliorez la documentation de chaque release. • Vous définissez et suivez des indicateurs de fiabilité (SLI/SLO) et des error budgets, en lien avec les équipes de développement. • Vous configurez et maintenez dans Datadog les dashboards, règles d’alerting et runbooks, en veillant à améliorer en continu l’observabilité. • Vous corrélez logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). • Vous mettez en place et améliorez les mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en œuvre de politiques de redémarrage automatique et de procédures de bascule (failover). • Vous facilitez des post-mortems constructifs après incidents, documentez les enseignements et pilotez les actions correctives techniques ou organisationnelles. • Vous mettez à jour et améliorez les pipelines de déploiement dans Azure DevOps. • Vous maintenez et faites évoluer les Helm charts utilisés pour le déploiement sur Kubernetes (AKS). • Vous intégrez SonarQube dans les processus de livraison pour renforcer les contrôles de qualité de code. • Vous collaborez avec les tech leads, développeurs et QA pour intégrer les tests automatisés dans les workflows CI/CD et renforcer la résilience des services. • Vous assurez le support de niveau 3 sur les services de la plateforme et contribuez aux analyses post-incident. Connaissances techniques • Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable. Démarrage : ASAP Mission: Longue
Mission freelance
Technical Lead – AI Agentic Platform
Publiée le
CI/CD
DevOps
Docker
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Une grande entreprise internationale lance une nouvelle plateforme d’IA agentique destinée à orchestrer, héberger, sécuriser et superviser plusieurs agents IA autonomes. Dans ce cadre, l’entreprise recherche un Technical Lead expérimenté pour piloter la construction technique complète de cette plateforme innovante. Missions : En tant que Technical Lead, vous serez responsable de : Build & Architecture : Construire l’infrastructure cloud de la plateforme (GCP/AWS/Azure). Implémenter les composants sélectionnés (LLM, orchestrateurs, agents, vector databases…). Assurer l’intégration avec les autres briques IT internes. DevOps / MLOps : Mettre en place les pipelines CI/CD, templates et chaînes d’intégration continue. Travailler avec les outils internes : Jenkins, Camunda, XLDeploy. Assurer la conteneurisation et l’orchestration (Docker, Kubernetes). Observabilité & Monitoring : Mettre en place le monitoring et l’alerting (Dynatrace, PagerDuty). Suivre capacité, performance et disponibilité. Sécurité : Implémenter les bonnes pratiques de sécurité cloud et IA. Gérer l’accès sécurisé, le chiffrement, la gouvernance. Documentation & Expertise : Rédiger la documentation d’exploitation / RUN. Former les équipes internes et jouer un rôle de mentor. Fournir les rapports de performance et de scalabilité. Livrables attendus : Architecture physique détaillée Prototype fonctionnel Plateforme prête pour la production Documentation complète Rapports de performance Sessions de transfert de connaissances
Mission freelance
Devops/Cloudops
Publiée le
CI/CD
Datadog
DevOps
3 mois
400-440 €
Lille, Hauts-de-France
Télétravail partiel
KOBI est la solution digitale qui permet l'agrégation des différents éléments qui composent un site à la façon d'un puzzle (microfrontends). Les sites marchands et Professionnels ainsi que les portails applicatifs internes sont basés sur KOBI. Notre solution est cloud native et scallable pour supporter des volumétries importantes en restant hyper performants. En tant qu’Ops Engineer KOBI, le rôle est de : * Garantir la disponibilité, la performance et la résilience de KOBI * Assurer le bon fonctionnement, la maintenance et le support de la plateforme en lien avec les équipes Produits, Sites et Infrastructure. * Définir et opérer les environnements de développement, intégration et production, en optimisant coûts et ressources cloud. * Automatiser, fiabiliser et sécuriser les déploiements via la chaîne CI/CD (approche DevSecOps). * Entretenir la culture DevOps dans l’équipe et accompagner l’amélioration continue des pratiques. * Définir et suivre les KPIs de performance et de fiabilité (monitoring, observabilité, qualité de service). * Contribuer activement à la gestion des incidents et à leur résolution rapide L'équipe est composée d'une Product Owner, d'une testeuse, d'un Tech Lead et de développeurs front et back. Le candidat / la candidate devra impérativement participer aux astreintes (1semaine (soir et weekend) toutes les 4, 5 ou 6 semaines). Il / Elle sera en contact régulier avec la communauté des ops et développeurs, la maitrise de l'Anglais professionnel est donc un pré-requis. 2j sur site obligatoires (lundi et jeudi au moment du besoin)
Mission freelance
Senior Ops Engineer - Lille
Publiée le
AWS Cloud
Docker
Github
6 mois
350-450 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Mission freelance
LLMOPS (infra)
Publiée le
Azure
Databricks
DevOps
12 mois
400-550 €
Paris, France
Télétravail partiel
Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste. Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM. Architecture & Stratégie LLMOps Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM. Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant. Déploiement & Exploitation des modèles Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés. Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence). Mettre en place des pipelines de mise à jour, de versioning et de rollback. Observabilité & Performance Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence). Garantir des performances stables et optimiser en continu l’inférence et les workflows associés. Sécurité, conformité & gouvernance Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints. Veiller à la conformité (RGPD, confidentialité, accès, auditabilité). Définir les règles de gouvernance modèle/données pour un usage maîtrisé. Support & Acculturation interne Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines). Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations). Accompagner les projets métiers exploitant l’IA générative. Compétences techniques Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité. Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence. Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises. Connaissances avancées en sécurité cloud & data, gestion des accès, compliance. À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Offre d'emploi
Développeur Fullstack NodeJS / VueJS H/F
Publiée le
40k-45k €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises du Retail. Dans ce cadre, nous recherchons notre Developpeur FusllStack qui interviendra sur des produits digitaux liés à la gestion de commandes et au réapprovisionnement, dans un framework agile, et en particulier sur un produit neuf de validation des propositions de commandes. Vos missions et responsabilités : Au sein d'une équipe agile pluridisciplinaire, vous viendrez compléter une feature team en charge de développer les produits digitaux gestion de commandes et planification. L'objet général concerne l'estimation et la génération de devis, la prise de rendez-vous de chantiers. - Réaliser du Build et du Run sur des produits digitaux composés d'API, de front et de back ; - Livrer et de commiter du code source et d'être garant de la qualité de celui-ci ; - Rédaction de la documentation nécessaire pour permettre la compréhension de son code ; - Code review avec les autres développeurs ; - Réaliser en collaboration avec l'OPS de l'équipe des tâches d'observabilité et de monitoring (datadog).
Offre d'emploi
Senior Cloud Consultant / Architecte AWS
Publiée le
AWS Cloud
Terraform
2 ans
Paris, France
Télétravail partiel
Missions principales 1. Accompagnement des métiers sur leurs projets AWS Participer très en amont aux phases de cadrage , comprendre les besoins fonctionnels et les traduire en solutions techniques adaptées. Concevoir des architectures cloud natives robustes, sécurisées et optimisées. Conseiller sur les services AWS pertinents en fonction des contraintes techniques, budgétaires et de sécurité. Participer aux ateliers, réunions projets, rituels techniques et instances de pilotage. Fournir des recommandations FinOps : dimensionnement, choix de services, optimisations de coûts. Suivre les projets depuis l’expérimentation jusqu’à la mise en production. 2. Conception & industrialisation via Terraform / CI/CD Développer et maintenir des modules Terraform réutilisables et conformes aux bonnes pratiques (structure modulaire, automatisation, documentation). Mettre en place ou faire évoluer les pipelines CI/CD (GitLab) pour automatiser build, tests et déploiement. Participer au MCO des environnements et contribuer à l’amélioration continue de l’outillage. Produire la documentation technique liée à l’automatisation (Confluence, guides, schémas). 3. Intégration avec le SI, sécurité & supervision Garantir l’intégration des applications et infrastructures cloud avec les services internes : authentification, gestion des logs, supervision & monitoring, sécurité. Contribuer à la définition et l’industrialisation des mécanismes transverses de supervision et d’observabilité. Rédiger et maintenir les DEX , schémas d’architecture et documents de référence associés. 4. Participation active aux rituels agiles et au pilotage Participer aux cérémonies agiles : PI Planning, dailies, weeklies, rétrospectives, grooming, tables rondes d’architectes. Assurer la traçabilité des travaux via la création et mise à jour des tickets JIRA. Produire des comptes-rendus synthétiques de participation et de décisions. 5. Acculturation & partage de connaissances Animer des sessions de formation interne , démos, kiosques Cloud. Apporter un support technique aux équipes projets et experts internes. Mettre à jour la documentation technique et les pages Confluence orientées métiers. Contribuer à la diffusion des bonnes pratiques Cloud et DevOps.
Offre d'emploi
Développeur front react / Next js + Azure + XP E-commerce
Publiée le
Azure
Next.js
React
3 ans
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Ta mission •Concevoir et développer des interfaces Front ambitieuses et performantes (React, Next.js, TypeScript, Web component), orientées SEO et Core Web Vitals, accessibles (RGAA/WCAG). •Porter la qualité logicielle (Software Craftsmanship) : TDD, clean code, design simple & robuste, revues de code, pair/mob programming. •Collaborer avec l’architecte & le tech lead pour faire évoluer l’architecture (SSR/SSG, caching, observabilité, monitoring). •Faire grandir le Design System en coopération avec l’équipe ad-hoc (Storybook, tokens, guidelines d’accessibilité), et accompagner son adoption dans les produits. •Améliorer en continu : CI/CD, tests automatisés, feature flags, A/B testing, observabilité et feedback loops. Livrables Front : pages produit haute performance (SSR/SSG), gestion de l’état, data fetching, routing, optimisations (images, scripts, bundles, lazy & code splitting), accessibilité et SEO by design. •Qualité : stratégie de tests multi-niveaux (unitaires, intégration, contract tests, E2E), dette maîtrisée, ADRs, sécurité (OWASP), revues structurées. •Ops & Delivery : déploiements progressifs, monitoring et SLOs, analyse d’incidents/post-mortems, culture data-driven. •Engagement : évangélisation craft, animation de rituels, capacité à challenger avec bienveillance et à faire converger les décisions.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
consultant DevOps /SRE
Publiée le
Ansible
DevOps
6 mois
400-530 €
Paris, France
Télétravail partiel
Hanson Regan recherche un consultant DevOps /SRE pour une mission freelance de 6 mois basée à Paris (renouvelable). 3 jours de présence sur site (probablement à temps plein pendant la période d'intégration). En tant qu'ingénieur SRE/DevOps, vous interviendrez sur un large éventail d'activités, de l'exploitation (opérations quotidiennes, support de production) à la construction (automatisation et projets d'industrialisation). Vous assurerez la fiabilité et la disponibilité des systèmes : surveillance continue de l'état des applications et de l'infrastructure (monitoring, alertes) afin de détecter proactivement les anomalies et garantir un haut niveau de disponibilité. Vous développerez et maintiendrez des outils d'automatisation pour simplifier les opérations répétitives ou complexes. Vous rédigerez et développerez des playbooks Ansible pour le déploiement d'applications et la configuration d'environnements (middleware Tomcat, bases de données PostgreSQL/Oracle, etc.), selon une approche Infrastructure as Code. AWX orchestrera ces automatisations et les rendra accessibles aux équipes concernées pour leurs tâches courantes. Industrialiser le déploiement continu (CI) : configurer et gérer des pipelines CI pour automatiser les builds et les tests des applications existantes. Contribuer à la création de conteneurs à partir du code ou des livrables fournis par les développeurs afin de standardiser les déploiements sur différentes plateformes. Cette industrialisation vise à améliorer la fiabilité et à accélérer les cycles de livraison, même si le déploiement continu (CD) n’est pas encore implémenté pour les applications existantes. Optimiser les performances et la capacité : analyser les performances des applications et implémenter des optimisations au niveau système ou applicatif en collaboration avec les développeurs (optimisation Tomcat/Java, optimisation des requêtes SQL, etc.). Améliorer l’observabilité et la sécurité : déployer des outils de monitoring sur les applications qui en sont dépourvues. Par exemple, implémenter des solutions de métriques centralisées (Prometheus/Grafana, Dynatrace) pour assurer la visibilité sur le fonctionnement des applications existantes. • Compétences système : excellente maîtrise de Linux, maîtrise des scripts (Bash, Python, etc.) pour automatiser les tâches. Bonne compréhension des concepts réseau de base (TCP/IP, DNS, équilibrage de charge) et des infrastructures virtualisées. • Outils d'automatisation et DevOps : Expérience confirmée des outils d'automatisation/configuration tels qu'Ansible (la connaissance d'AWX/Ansible Tower est un atout). Conformément aux exigences du client, les freelances doivent pouvoir travailler via leur propre entreprise ; nous ne pouvons malheureusement pas accepter les sociétés de portage salarial pour cette mission. Merci de nous contacter au plus vite si vous êtes intéressé.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
90 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois