L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 799 résultats.
Offre d'emploi
Ingénieur DevOps
VISIAN
Publiée le
Ansible
Dynatrace
1 an
Île-de-France, France
Contexte Le Bénéficiaire souhaite une prestation d’accompagnement dont l’objectif est d'assurance d'un service.; Missions Planification et réalisation de l'ensemble des gestes d'installation ou de mise à jour d'applications. Mise en place et évolution du monitoring et de l’exploitation des applications, et passage en run. Automatisation des déploiements applicatifs. Analyse et résolution des incidents en combinant connaissances techniques et fonctionnelles. Communication vers des interlocuteurs aux profils divers et variés de la squad et du domaine applicatif. Accompagnement technique et conseil auprès des ITO. Proposition d'axes d’optimisation. Compétences techniques Servicenow Dynatrace, elastic seash, logstah Ansible, XL release, Argo CD Linux, Windows, Kubernetes/Openshift, Terraform, Postgre, Oracle Autosys
Mission freelance
Un Ingénieur Support Applicatif N2 – Orientation DevOps / SRE à Orléans
Almatek
Publiée le
CI/CD
Dynatrace
Java
3 mois
200-250 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Ingénieur Support Applicatif N2 – Orientation DevOps / SRE à Orléans Poste: un AE N2 / DevOps Profil Supervision N2 + Automatisation / DevOps Le profil recherché devra assurer l’activité de support N2 (qualification, analyse, diagnostic, recherche de cause, contournement, suivi des corrections avec les équipes produit), mais avec une forte valeur ajoutée sur l’industrialisation du run et l'amélioration continue. Nous attendons en particulier une sensibilité DevOps / culture SRE, avec une capacité à : Automatiser les tâches récurrentes de support (scripts, outillage, runbooks exécutables), Améliorer l’observabilité et accélérer les diagnostics (logs, dashboards, alerting), Contribuer à la réduction des incidents récurrents via RCA et actions de fiabilisation Structurer et enrichir la base de connaissance Rendre plus autonomes les clients internes et les équipes produit (observabilité, selfcare, procédures, outils de diagnostic). Compétences attendues : expérience en support applicatif N2, forte capacité d’analyse (Dynatrace), développement d'outillages (Java, Python), scripting (Bash), rigueur documentaire, et capacité à travailler en interaction avec le N1 et les équipes produits et techniques. L’objectif est de réduire la charge de support, améliorer le MTTR, et augmenter l’autonomie des équipes via automatisation + standardisation. Principaux environnements techniques : Observabilité : DYNATRACE Systèmes : LINUX Supervision : CANOPSIS Monitoring : KIBANA Serveurs web : WEBLOGIC, TUXEDO Conteneuristation : KUBERNETES (TAS, K8S) Base de données : ORACLE Ticketing : SNOW, JIRA Compétences en scripting et développement et affinités pour l'automatisation (Java / Python / Bash) DevOps : CI/CD (GITLAB) Travail collaboratif : Confluence, Mattermost, O365 Méthodologies et normes : Agile / SCRUM, CI/CD - DevOps
Mission freelance
Ingénieur Système et Réseau
ALLEGIS GROUP
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)
6 mois
Rennes, Bretagne
Contexte du poste Au sein de l’équipe Infrastructure & Sécurité du SI, vous participez à la conception, l’évolution et le maintien en condition opérationnelle de l’ensemble des infrastructures du Groupe. Vous intervenez sur des environnements complexes mêlant systèmes, réseaux, sécurité, cloud public (GCP) et technologies open source. Vous jouez un rôle d’expert technique, de pilote de projets et de support avancé. Missions principales 1. Administration Système Conception, mise en œuvre, optimisation et MCO des infrastructures SI. Gestion et administration des environnements : Serveurs Windows & Linux VMware Stockage NetApp / IBM Sauvegardes Veeam Administration des services Microsoft : Exchange Online, AD, Azure AD . Participation à des architectures Open Source . Mise en place et exploitation de solutions Kubernetes (containerisation & orchestration). Gestion des pipelines CI/CD via GitLab CI . Infrastructure as Code avec Terraform pour des environnements GCP . 2. Administration Réseau & Sécurité Administration et supervision des équipements et solutions de sécurité : FW, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO . Gestion et exploitation des environnements réseaux : Matériel Cisco (dont Nexus) Réseaux LAN / WAN / SDWAN Protocoles TCP/IP, routage 3. Transverse Apporter une expertise technique et proposer des solutions adaptées aux besoins métiers. Piloter les projets réalisés par les intégrateurs. Rédiger et maintenir la documentation : Procédures infra (architecture, sauvegarde, réinstallation). Documents à destination du CSI ou de l’exploitation. 4. Pilotage de projets Conduire les projets de bout en bout, de la conception à la mise en production. Suivre l’avancement, assurer le reporting et piloter les prestataires. Rédiger les procédures d’exploitation et la documentation technique. 5. Support utilisateurs (Niveau 2) Prendre en charge les escalades niveau 2 en provenance des équipes CSI et exploitation. Traiter les demandes applicatives, matérielles et logicielles. Assurer une veille technologique afin de proposer des solutions innovantes.
Mission freelance
Entra ID pour une mission sur Orleans/s
WorldWide People
Publiée le
Microsoft Entra ID
6 mois
400-430 €
Orléans, Centre-Val de Loire
Entra ID pour une mission sur Orleans. Services d'annuaire EntraID (AzureAD) / Active Directory MFA, SSO, OIDC, SAML… Administration des serveurs Windows Scripting de type PowerShell et/ou Bash Capacité à travailler en équipe Autonome et force de proposition Capacité rédactionnelle Il faut que le candidat s'installe dans la région. Full présentiel puis 3 jours de TT Ci dessous le besoin : Objectifs et enjeux du missionnement : Porter les engagements du Pôle STI sur les domaines "EntraID (AzureAD)" et "Active Directory". Participer aux déploiements sur les Environnements Fabricants et aux Mises En Production. Traiter et réaliser les demandes d'intervention, créations d’applications EntraID. Apporter une expertise technique et un support de niveau 3. Apporter un conseil aux projets demandeurs. Analyser et résoudre les incidents et problèmes. Compétences : Services d'annuaire EntraID (AzureAD) / Active Directory MFA, SSO, OIDC, SAML… Administration des serveurs Windows Scripting de type PowerShell et/ou Bash Capacité à travailler en équipe Autonome et force de proposition Capacité rédactionnelle Livrables attendus : Dossiers de conception des applications dans le périmètre Mise à jour des dossiers d'exploitation (DEX) dans le périmètre Procédures et scripts d'automatisation Activités à réaliser : Réaliser les évolutions du référentiel technique et s'assurer de son application Maintenir en condition opérationnelle les annuaire EntraID (AzureAD) et Active Directory et autres produits de l’équipe (SSPR, IDM, AD Connect, ADFS, Windows Hello For Business…) Définir et faire évoluer l'architecture technique du domaine d'activités S'approprier de nouvelles technologies afin de les intégrer dans le SI, dans le respect des normes en vigueur. Être force de proposition sur les sujets portés dans le cadre de la mission Travailler en équipe et rendre compte L'équipe utilise les méthodes agiles et suit ses activités au travers de tableaux Kanban. L'usage de la méthode SAFe est à prévoir dans le cadre de participation à des trains agiles et des projets.
Mission freelance
Ingénieur DevOps, Réseaux et Sécurité (H/F)
Sapiens Group
Publiée le
Ansible
Cisco
Juniper
12 mois
500-530 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses équipes, notre client recherche un Ingénieur DevOps, Réseaux et Sécurité pour intervenir sur un périmètre LAN critique couvrant l’ensemble des sites en France (environ 70 sites). Le poste inclut une forte dimension RUN N2 , ainsi qu’une évolution vers des activités DevOps et automatisation des infrastructures réseau . Missions principales 🔹 Exploitation & RUN Réseau (Niveau 2) Assurer le RUN N2 des infrastructures LAN IT/OT (switching, routage, segmentation VLAN). Gérer les incidents réseau : diagnostic, analyse des causes, résolution et coordination avec les équipes N1/N3. Garantir la continuité de service et la performance du réseau sur l’ensemble du périmètre. 🔹 Administration des services réseau Exploiter et maintenir les solutions : Cisco ISE (gestion des accès et sécurité réseau) Infoblox (DNS, DHCP, IPAM) Outils de cartographie et d’analyse réseau (type IpFabric) Participer au suivi de conformité et à l’analyse des infrastructures . 🔹 DevOps & Automatisation (nouvel axe stratégique) Concevoir et mettre en œuvre des scripts d’automatisation (Python, Ansible ou équivalent) pour : La configuration réseau Le déploiement d’équipements Le monitoring et les diagnostics Contribuer à l’industrialisation des opérations réseau ( Infrastructure as Code ). Participer à l’intégration des pratiques DevOps : CI/CD appliqué aux configurations réseau Automatisation des tests et validations Optimiser les processus RUN via des outils d’automatisation et d’orchestration . 🔹 Standards & amélioration continue Participer à la définition et au maintien des standards LAN (architecture, bonnes pratiques, templates). Collaborer avec les équipes d’ingénierie et de supervision pour : Gérer les escalades Améliorer les processus Contribuer à l’ amélioration continue des performances et de la fiabilité du réseau. 🔹 Documentation & gestion opérationnelle Rédiger et maintenir la documentation technique (procédures, wiki interne). Structurer et améliorer le partage de connaissances. Gérer les aspects logistiques : Stock matériel Envois inter-sites RMA (retours fournisseurs) Environnement technique Réseau : Cisco Catalyst & Nexus, Arista Sécurité : Palo Alto Networks, Juniper SRX Outils réseau : Cisco ISE, Infoblox (DDI), IpFabric, Tufin DevOps & automatisation : Python, Ansible, API REST (souhaité) ITSM & gestion : ServiceNow, CMDB, Netbox, Opentext
Mission freelance
Tech Lead VB.NET & C#
Groupe Aptenia
Publiée le
API REST
C#
CI/CD
3 ans
500-650 €
Paris, France
Dans le cadre du renforcement de sa DSI, un acteur majeur du secteur de la gestion de droits et de la musique recherche un Tech Lead (.NET) pour intervenir sur le produit COPS , outil stratégique utilisé directement par la Direction Financière . Ce produit est au cœur des processus de comptabilité, trésorerie et contrôle de gestion . La mission s’inscrit dans un environnement structuré basé sur le framework SAFe , avec des équipes pluridisciplinaires (Product Owner, développeurs, architectes, QA, experts métier). Le Tech Lead aura pour objectif de porter le leadership technique de l’équipe produit et de garantir : une vision technique cohérente et ambitieuse , une exécution fiable et industrialisée , une forte valeur métier pour les utilisateurs financiers. Missions principalesLeadership technique Co-construire et porter une vision technique partagée alignée avec la stratégie de la DSI. Accompagner l’équipe dans les décisions techniques structurantes . Apporter un soutien technique dans la résolution de problématiques complexes . Excellence technique Définir et promouvoir les standards de développement et de qualité . Piloter la gestion de la dette technique et de l’obsolescence avec le Product Owner. Encourager les bonnes pratiques : clean code, refactoring, revues de code . Industrialisation & qualité Mettre en place des pratiques de tests automatisés (shift left, pyramide de tests) . Superviser les pipelines CI/CD et les processus d’industrialisation. Coordination transverse Assurer la cohérence technique entre équipes, produits et fonctions transverses . Traduire les enjeux métier financiers en solutions techniques pertinentes. Participer à la communication technique auprès des parties prenantes . Mentorat & dynamique d’équipe Encourager la montée en compétence de l’équipe (pair programming, tech talks). Favoriser l’autonomie, la collaboration et le leadership partagé . Incarner les valeurs agiles et encourager la responsabilité collective.
Offre d'emploi
Developpeur Fullstack JAVA/ANGULAR/GCP h/f
NITROLABZ By SYNC-DIGITALS SAS
Publiée le
Apache Kafka
Cloud
Git
3 ans
40k-45k €
360-390 €
Annecy, Auvergne-Rhône-Alpes
🚀 Nous renforçons nos équipes en Île-de-France ! Nous recherchons 2 profils seniors passionnés pour travailler sur un projet stratégique pour notre client, avec possibilité de télétravail partiel. 📌 Profils recherchés : 1️⃣ Développeur / / 2️⃣ Développeur / 🎯 Séniorité : Minimum 3 ans d’expérience ⌚ Démarrage : ASAP 📍 Localisation : Île-de-France Compétences communes exigées : 👉Maîtrise d‹e , , et principes 👉Maîtrise des bases de données / NoSQL 👉Expérience sur projets / Event-driven / Streaming data 👉Connaissances sur , Storage, , ou 👉Anglais opérationnel 👉La maîtrise du cloud est impérative 💡 Vous êtes passionné par le développement cloud et les architectures modernes ? Rejoignez-nous et participez à un projet à fort impact ! N'hesitez pas à nous envoyer votre candidature sur 📩
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
CDI - SRE AWS (H/F)
BLOOMAYS
Publiée le
AWS Cloud
CI/CD
Site Reliability Engineering (SRE)
60k-85k €
Paris, France
Environnement Cloud & Production Critique Contexte : Au sein d’une organisation internationale disposant d’un écosystème digital à forte exposition, vous rejoignez l’équipe Infrastructure. Votre rôle est central dans la garantie de la fiabilité, de la performance et de la disponibilité des services numériques en production. Vous travaillez en étroite collaboration avec les équipes de développement afin de concevoir, déployer et maintenir des systèmes répondant à des standards élevés de qualité, sécurité et résilience. Missions principales : 1. Pilotage de l’infrastructure au sein des feature teams Intégré à une ou plusieurs équipes produit, vous êtes responsable du backlog infrastructure associé. À ce titre, vous : Gérez les sujets d’infrastructure dans les backlogs produits Collaborez avec les Product Owners et Tech Leads pour définir la stratégie technique locale Participez aux rituels agiles des équipes Consolidez et pilotez la capacité de traitement des sujets infra Priorisez les demandes de Build en fonction des enjeux business et techniques 2. Build & Infrastructure as Code Concevoir et déployer l’infrastructure nécessaire aux applications (serveurs, bases de données, réseau, etc.) Garantir la qualité, la stabilité et la sécurité des environnements déployés Mettre en œuvre et maintenir l’Infrastructure as Code Valider les Merge Requests liées à l’infrastructure Adapter la répartition des sujets en fonction de la maturité technique des équipes Encourager le partage de connaissances (pair programming, mentoring) 3. Observabilité & Performance Concevoir et maintenir les systèmes de monitoring et d’alerting Contribuer aux tests de performance Améliorer la fiabilité, la disponibilité et la scalabilité des services Planifier et optimiser la capacité des infrastructures 4. Incident Management & Production Gérer les incidents en environnement de production critique Participer aux analyses post-mortem et à l’amélioration continue Mettre en place des plans de reprise d’activité (Disaster Recovery) Garantir la conformité aux standards de sécurité 5. Automatisation & Optimisation Automatiser les tâches répétitives Optimiser les coûts cloud et l’utilisation des ressources Maintenir une documentation claire et à jour Accompagner et former les développeurs sur les bonnes pratiques SRE Environnement technique Cloud & Containers AWS, Kubernetes, Docker Infrastructure as Code & Automation Terraform, Helm, Kustomize, Ansible CI/CD & GitOps GitLab CI, Jenkins, ArgoCD Observabilité Prometheus, Grafana, Loki, Tempo Data & Messaging PostgreSQL, MySQL, MongoDB Kafka / systèmes de messaging Sécurité Vault, gestion d’identité (OIDC / SSO)
Mission freelance
Ingénieur DevOps AWS
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Azure Kubernetes Service (AKS)
DevOps
12 mois
600-630 €
Paris, France
Contexte La prestation concerne les activités nécessaires à une démarche DevOps chez notre client et l’amélioration de l’usine CI/CD dans notre chaîne de Delivery. L'équipe en charge de ces activités travaille en étroite collaboration avec les équipes sécurité du SI, développement et exploitation sur la mise en place de cette chaîne. L'équipe travaille aussi sur la mise en place de certaines infrastructures d'hébergement, sur les nouveaux projets, en y connectant notre usine logicielle et outils CI/CD mis en place. La mission se déroule au sein de l’équipe DEVOPS. La mission vise ainsi à : Fournir des conseils sur les bonnes pratiques de conception architecturale pour de multiples applications dans le cloud AWS et projets de l'entreprise ; Évaluer les besoins en matière d'applications cloud et formuler des recommandations architecturales pour la mise en œuvre, le déploiement et l'approvisionnement des applications sur AWS ; Contribuer à réduire les cycles de livraison des solutions applicatives via l'automatisation Contribuer à l'amélioration continue de notre usine logicielle (CI/CD). Missions Industrialiser le déploiement et la gestion des infrastructures cloud via l’Infrastructure as Code et des pipelines CI/CD ; Assurer la fiabilité, la sécurité et l’observabilité des plateformes en production (Day‑2 Ops, automatisation) ; Piloter la maîtrise des coûts (FinOps) et l’intégration des architectures hybrides (on‑prem et AWS) ; Réaliser et restituer des études et des PoC ; Documenter l’activité et les process ; Concevoir et maintenir les outils et services ; Collaborer aux projets : conseil, fourniture des éléments nécessaires aux chefs de projet, participation et contribution aux instances des projets ; Collaborer à des projets impliquant une architecture complexe, des systèmes découplés, des interactions entre services gérés par différents acteurs ; Rédiger des Documents d’Exploitation (DEX) ; Assurer le reporting d’activité (fréquences hebdomadaire et mensuelle). Une période de montée en compétence est prévue en début de mission, avec une prise de responsabilité progressive. Outils & Environnement Pipelines DevSecOps : Gitlab, Jenkins, Nexus, Artifactory, SonarQube, Checkmarx, Ansible Administration de clusters Kubernetes Développement Infrastructure as Code (Terraform, CloudFormation) Scripts Python et Bash Cloud provider AWS Méthodologies Agile Scrum et Kanban Concepts de cybersécurité (AppSec, DevSecOps, bonnes pratiques) Objectifs attendus Réalisation et restitution d’études et de PoC Documentation de l’activité et des process Conception et maintien des outils et services Collaboration aux projets et instances Rédaction de Document d’Exploitation (DEX) Reporting d’activité hebdomadaire et mensuel
Offre premium
Offre d'emploi
Expert Kubernetes / Openshift
LOMEGARD
Publiée le
Cloud
Docker
Kubernetes
1 an
40k-75k €
400-620 €
Île-de-France, France
Contexte Au sein d’une équipe spécialisée en orchestration de conteneurs , vous intervenez sur la mise en œuvre, l’exploitation et l’évolution de plateformes Kubernetes et OpenShift dans un environnement Cloud industriel et fortement régulé . L’équipe a pour rôle de fournir des clusters Kubernetes et Openshift prêts à l’emploi , sécurisés, automatisés et intégrés au système d’information, afin de permettre aux équipes applicatives de consommer des services Cloud de manière autonome et conforme aux standards internes. La mission s’inscrit dans une logique de support avancé des plateformes , d’ automatisation , d’ innovation et d’ amélioration continue des environnements Kubernetes/Openshift . Missions En tant qu’ Expert Kubernetes , vous interviendrez notamment sur les sujets suivants : Exploitation et support de clusters Kubernetes / OpenShift en environnement Cloud et on prem Administration avancée des objets Kubernetes (nodes, namespaces, workloads, networking, storage, RBAC, etc.) Gestion des incidents de niveau N2 à N3 (diagnostic, résolution, prévention) Participation aux évolutions et à l’industrialisation des plateformes de conteneurisation Mise en œuvre et amélioration de l’ automatisation et de l’Infrastructure as Code Contribution aux choix techniques, à l’innovation et aux bonnes pratiques autour de Kubernetes Participation à la sécurisation des plateformes selon les standards internes Collaboration avec les équipes applicatives, cloud et infrastructure Participation à des astreintes liées au support des plateformes Le poste est orienté expertise et support de clusters Kubernetes : il ne s’agit pas d’un rôle DevOps orienté CI/CD applicatif , mais bien d’un rôle centré sur la stabilité, la performance et l’évolution des plateformes Kubernetes.
Offre d'emploi
Ingénieur DevOps IA
VISIAN
Publiée le
AI
Amazon SageMaker
Ansible
1 an
Paris, France
Missions principales Mise en œuvre opérationnelle et technique des produits IA : Apporter une expertise technique et participer à la conception des architectures IA Industrialiser et automatiser le déploiement de plateforme agentique dans un environnement on premise ou cloud Participer à la mise en place de services managés en intégrant les contraintes de sécurité, compliance et gouvernance Documenter les offres et services et assurer leur mise en production Démontrer la valeur des offres d'IA générative auprès des entités/clients internes Réaliser des présentations et démos pour promouvoir les offres et services Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap Prendre en charge les éléments de la backlog formalisée par le Product Owner Assurer le lead technique sur un produit au sein de la squad Participer à l'ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Compétences métiers requises Expérience en déploiement et manipulation du workload data Maîtrise des stacks IA sur AWS, GCP et/ou on-premise, avec expérience en déploiement de processus MLOps et LLMOps Maîtrise des fondamentaux de conteneurisation et des pratiques CI/CD Expérience dans le développement de projets AI/ML, d'exploitation et d'optimisation de produits IA Connaissance approfondie des meilleures pratiques en matière de sécurité des données et de conformité Environnement technique Cloud et Infrastructure : AWS (EKS, Sagemaker, Bedrock), GCP (GKE, Vertex AI), stack on premise, Kubernetes, Openshift, Docker Développement et Automatisation : Terraform, Python, SQL, Ansible, Jenkins, GitLab CI, Kestra Data et IA : Artifactory (Jfrog), orchestration de workload IA (Dataiku ou MLflow), bases de données vectorielles (Opensearch, RDS, Elastic Search, PG Vector, MongoDB Atlas) Observabilité : Dynatrace, CloudWatch, Prometheus, Grafana, X-Ray (appréciées) Compétences comportementales Excellent relationnel Agilité Esprit d'équipe Force de proposition Rigueur et sens de l’organisation
Offre d'emploi
Développeur Fullstack Expert Java / React
Lùkla
Publiée le
CI/CD
DevOps
Docker
1 an
Châtillon, Île-de-France
Dans le cadre d’un projet stratégique dans le secteur Retail / E-commerce , nous recherchons un Développeur Fullstack Expert pour intervenir sur une plateforme e-commerce à forts enjeux de performance et de qualité de delivery. Le consultant participera au développement backend et frontend ainsi qu’à la conception technique de la solution. Missions principales : Analyse : Participation aux ateliers de cadrage Analyse fonctionnelle détaillée Étude de faisabilité technique Estimation des charges Conception et développement : Conception technique et design logiciel Développement des fonctionnalités Structuration de la base de données Revue de code Industrialisation et intégration Tests : Réalisation des tests unitaires Contribution aux tests d’intégration Analyse des résultats Reporting Maintenance : Maintenance corrective et évolutive Support et résolution d’incidents de production Livrables attendus : Développement des fonctionnalités Conception technique Tests unitaires Contribution aux tests d’intégration Documentation technique Préparation des mises en production Maintenance corrective et évolutive
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Offre d'emploi
Expert Cloud GCP / S3NS
CAT-AMANIA
Publiée le
Apigee
Artifactory
CI/CD
Île-de-France, France
Objectif poursuivi pour cette mission L’objectif de cette mission est de renforcer l’équipe technique pour : • • Participation au Design & Implémentation de la landing zone S3NS (Organisation, Auth & Habilitation, Réseau, Sécurité, Chiffrement, Gestion des clés & secrets, intégration avec le SI Bpifrance) • Participation à la mise en place des briques de sécurité (Cloisonnement, FW, Bastion Wallix, Intégration au SOC Palo Alto) • Intégration avec les briques de service du SI (Observabilité Datadog, Event Confluent, Atlas MongoDb, Solution Finops en dev spe, SSO Ping Identity, Cnapp Prisma, Sauvegarde Commvault...) • Abstraction des services & Intégration à la plateforme de service (0 ticket, Automatisation par event & API) • Accompagnement à la migration des premières applications sur le périmètre Assurance Export (28 applications • Architecture Cloud Sécurisée : Expertise dans la conception et l’implémentation de Landing Zones Cloud multi projet avec un fort accent sur la sécurité (Firewall, IAM, régulation). • Réseaux cloud : Maîtrise des concepts de réseaux sur un environnement GCP, incluant VPC, VPN, pare-feu NAT, etc. • Certification GCP • API & Plateforming : Capacités dans l’intégration et la gestion des API (par ex, Apigee). • Approche DevSecOps : Connaissance des outils d’intégration/delivery continue et des pratiques d’automatisation pour assurer la scalabilité et le MCS. • Connaissance méthodologie SAFE.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2799 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois