Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Ingénieur devops
Nous recherchons pour le compte de notre client grand compte (secteur bancaire) un.e ingénieur.e devops. Vos missions seront : - Gestion de la relation avec les équipes DSI et OPS en France et à l'international. - Etude et développement de solutions pour automatiser les actes techniques sur différents Cloud providers sur plateformes PaaS sur le Cloud interne. - Mise en place et maintien en condition opérationnelle de pipeline IaC basé sur Terraform. - Mise en place de pipeline CI/CD basé sur la plateforme DevSecOps du Groupe. - Rédaction des tests et réalisation des tests techniques de validation de bon fonctionnement. - Rédaction des documentations d'exploitation : dossier d'installation et d'exploitation. - Scripting d'outils d'exploitation. - Accompagnement des utilisateurs sur l'utilisation des outils : formation, support.. Interventions occasionnelles hors heures ouvrées pour la mise en production. Possible astreinte. Une très bonne connaissance de l'environnement de production technique et d'intégration applicative est demandée.

Mission freelance
Expert DevOps (H/F)
Poste : Expert DevOps (H/F) Type de contrat : Freelance Localisation : Niort (79) L’IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite. Alors, vous nous rejoignez ?! Alors, vous nous rejoignez ?! Artemys recherche actuellement un(e) Expert(e) DevOps . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir auprès d’une société niortaise au socle technique varié et chalengeant (parfait si vous souhaitez une mission dynamique et enrichissante ;) sur les missions suivantes : Automatisation CI/CD : création et maintenance de pipelines, tests automatisés, déploiements continus Infrastructure as Code : gestion des environnements via Terraform, Ansible... Conteneurisation & Orchestration : gestion des clusters et déploiements (Docker, Kubernetes) Supervision & Observabilité : mise en place de monitoring, centralisation des logs, alerting Sécurité : scans de vulnérabilités, gestion des secrets, conformité, DevSecOps Collaboration & Culture DevOps : travail transversal avec Dev, QA, Ops, promotion de l’amélioration continue Cloud & Scalabilité : déploiement sur AWS, Azure, GCP, optimisation des coûts et de la résilience Gestion des artefacts : maintenance des registres (Nexus, Artifactory), gestion des dépendances

Mission freelance
Expert DevOps (H/F)
Poste : Expert DevOps (H/F) Type de contrat : Freelance Localisation : Niort (79) L’IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite. Alors, vous nous rejoignez ?! Artemys recherche actuellement un(e) Expert(e) DevOps . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir auprès d’une société niortaise au socle technique varié et chalengeant (parfait si vous souhaitez une mission dynamique et enrichissante ;) sur les missions suivantes : Automatisation CI/CD : création et maintenance de pipelines, tests automatisés, déploiements continus Infrastructure as Code : gestion des environnements via Terraform, Ansible... Conteneurisation & Orchestration : gestion des clusters et déploiements (Docker, Kubernetes) Supervision & Observabilité : mise en place de monitoring, centralisation des logs, alerting Sécurité : scans de vulnérabilités, gestion des secrets, conformité, DevSecOps Collaboration & Culture DevOps : travail transversal avec Dev, QA, Ops, promotion de l’amélioration continue Cloud & Scalabilité : déploiement sur AWS, Azure, GCP, optimisation des coûts et de la résilience Gestion des artefacts : maintenance des registres (Nexus, Artifactory), gestion des dépendances

Mission freelance
Architecte Cloud AWS et GCP (H/F) - Freelance
Lieu : Lyon Part-Dieu (hybride possible) Démarrage : 01 novembre Durée : Longue mission (renouvelable) TJ : 650€ (senior) – 800€ (expert) 🎯 Contexte & Mission Nous recherchons un Architecte Cloud spécialisé AWS et GCP pour accompagner un acteur majeur dans sa transformation numérique. Votre rôle consistera à concevoir, déployer et optimiser des solutions cloud sécurisées et performantes, en garantissant leur scalabilité et leur intégration au SI existant, dans un contexte multicloud (AWS, GCP, Azure, cloud de confiance). 🔑 Responsabilités En tant qu’Architecte Cloud, vos principales missions seront : Conception & Développement Concevoir et développer des solutions de platform engineering cloud (AWS, GCP, Azure, clouds de confiance). Participer à la mise en place des futures zones d’hébergement de confiance. Développer/configurer le socle des produits de sécurité cloud. Optimiser la performance et les coûts des services plateformes. Infrastructure as Code, CI/CD & SRE (Lot A) Encadrer la conception et la mise en œuvre des modules Terraform à l’état de l’art. Définir et déployer des pipelines CI/CD en contexte multicloud. Intégrer et configurer les solutions de monitoring & observabilité . Proposer des innovations (ex : prompt-driven development ). Apporter une expertise en stratégie de migration cloud . Sécurisation des pipelines de déploiement (Lot B) Garantir l’intégration des chantiers sécurité dans les cycles agiles (daily, sprint review, etc.). Assurer la surveillance quotidienne des vulnérabilités ( Security Hub, AWS Config, GuardDuty, Inspector… ). Intégrer systématiquement les contrôles sécurité dans les pipelines ( SAST, DAST, revues de code ). Analyser les retours des outils de sécurité et coordonner les remédiations avec les experts cyber. 🛠️ Environnement technique Clouds : AWS, GCP, Azure, clouds de confiance Outils : Terraform, GitLab, GitLab CI, JIRA, Confluence, ServiceNow, Artifactory, Sonar, Harbor, WSL 👤 Profil recherché Expérience confirmée ou expertise en architecture cloud (AWS, GCP, Azure). Maîtrise des pratiques IaC, CI/CD, SRE, DevSecOps . Capacité à travailler en équipe et à collaborer avec les parties prenantes (IT, sécurité, métiers). Anglais technique requis. Une certification est un plus apprécié : AWS Certified Solutions Architect Google Cloud Associate Cloud Engineer Azure Solutions Architect Expert 🎁 Avantages (via le client final / ESN) Prime de Noël, vacances, mariage et naissance Prime de cooptation attractive Aides à la mobilité verte (engagement écologique) Formation continue : 1 formation/an (technique ou fonctionnelle) 👉 Une mission d’envergure pour un expert Cloud souhaitant évoluer dans un environnement multicloud exigeant et innovant , au cœur de la transformation numérique d’un grand compte.
Offre d'emploi
Ingénieur DevOps H/F
🌟 Quel sera votre poste ? 🌟 📍 Lieu : Carquefou 🏠 Télétravail : 2 jours de TT par semaine 👉 Contexte client et missions : Notre client souhaite une prestation d’expertise cloud GCP (LandingZone notamment)pour réaliser les activités suivantes : Travail en agilité (Scrum, Kanban) Définition des solutions techniques vis à vis des éléments priorisés du backlog produit par le PO Relation de proximité et en binôme avec un membre de l'équipe Travail en trinôme avec le PO de l'équipe DevSecOps et avec les architectes de la plate-forme Cloud Rôle de conseil et de formateur auprès des intervenants de l'équipe) Réalisation de travail HNO de manière cyclique (1 semaine / 6)

Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Offre d'emploi
Tech Lead DevOps
🎯 Missions principales : En tant que Tech Lead DevOps, tu auras un rôle clé dans la transformation et l’industrialisation des pratiques DevSecOps : Monde Ops (mandatory) : Porter les sujets DevOps sur GitLab CI, Azure, etc. Mettre en place des pipelines et automatisations. Diriger les initiatives DEVSECOPS et de supervision : Définir et piloter la roadmap DevSecOps. Fournir des recommandations et choix d’outils adaptés. Documenter les processus et bonnes pratiques. Piloter et contribuer à l’installation des outils. Former et accompagner les équipes dans leur utilisation. Fournir des tableaux de bord SLA et KPI pour suivre la performance et la qualité.

Mission freelance
FREELANCE – Ingénieur DevOps (H/F)
Dans le cadre d’une dynamique de croissance et de transformation numérique, nous constituons un vivier de profils freelance DevOps pour répondre à des besoins récurrents ou ponctuels chez nos clients, majoritairement situés à Rennes et Nantes. Les missions proposées pourront varier selon les environnements techniques, mais l’objectif est de contribuer à l’automatisation, la fiabilisation, et la scalabilité des infrastructures et chaînes CI/CD. Missions Participer à la mise en place ou à l’optimisation d’infrastructures Cloud (AWS, Azure, GCP) ou On-Premise Définir et maintenir des pipelines CI/CD (GitLab CI, Jenkins, GitHub Actions, etc.) Automatiser les déploiements via des outils d’IaC (Terraform, Ansible, etc.) Gérer la conteneurisation et l’orchestration (Docker, Kubernetes, Helm) Mettre en œuvre des outils de monitoring et de log (Prometheus, Grafana, ELK, etc.) Assurer la sécurité, la supervision et la disponibilité des systèmes Collaborer avec les équipes Dev et Sec dans une logique DevSecOps

Mission freelance
FREELANCE – Ingénieur DevOps (H/F)
Dans le cadre d’une dynamique de croissance et de transformation numérique, nous constituons un vivier de profils freelance DevOps pour répondre à des besoins récurrents ou ponctuels chez nos clients, majoritairement situés à Rennes et Nantes. Les missions proposées pourront varier selon les environnements techniques, mais l’objectif est de contribuer à l’automatisation, la fiabilisation, et la scalabilité des infrastructures et chaînes CI/CD. Missions Participer à la mise en place ou à l’optimisation d’infrastructures Cloud (AWS, Azure, GCP) ou On-Premise Définir et maintenir des pipelines CI/CD (GitLab CI, Jenkins, GitHub Actions, etc.) Automatiser les déploiements via des outils d’IaC (Terraform, Ansible, etc.) Gérer la conteneurisation et l’orchestration (Docker, Kubernetes, Helm) Mettre en œuvre des outils de monitoring et de log (Prometheus, Grafana, ELK, etc.) Assurer la sécurité, la supervision et la disponibilité des systèmes Collaborer avec les équipes Dev et Sec dans une logique DevSecOps

Offre d'emploi
Architecte IA
Contexte : Dans le cadre du renforcement de nos dispositifs Data & IA, nous recherchons un Architecte IA capable de piloter la conception, l’implémentation et l’industrialisation de solutions d’intelligence artificielle robustes et scalables. Ce rôle exige une maîtrise des pipelines MLOps, des standards CI/CD, ainsi qu’une forte culture de la qualité logicielle. L’architecte jouera un rôle clé dans la gouvernance des modèles ML en production, le suivi de leur performance, et l'encadrement des choix techniques autour des plateformes IA (MLflow, Domino, etc.). Missions principales : Architecture et automatisation des workflows IA : Concevoir et mettre en place des pipelines CI/CD pour les projets Data Science et IA. Industrialiser les workflows ML : preprocessing, entraînement, déploiement, monitoring. Structurer l’infrastructure IA sur Docker, GitLab-CI et des environnements cloud (AWS, Azure, GCP). Garantir la reproductibilité, la traçabilité et la résilience des traitements IA. Gouvernance du code et qualité logicielle : Définir et imposer les bonnes pratiques de développement (clean code, typage, testabilité). Implémenter et maintenir des outils de qualité : Ruff, Black, MyPy, SonarQube. Assurer la scalabilité et la maintenabilité des solutions IA/ML dans le temps. Gérer le versionnage, la promotion, le rollback et le monitoring des modèles via MLflow. Encadrer l’intégration des modèles dans les chaînes de valeur métiers. Définir les stratégies de supervision des performances des modèles (drift, alerting, logs). Encadrement des équipes Data & IA : Accompagner les Data Scientists sur les enjeux d’industrialisation et d’architecture en tenant compte de la culture MLOps et DevSecOps au sein des projets IA. Contribuer au choix et à la mise en œuvre de plateformes comme Domino Data Lab.

Mission freelance
Mission Longue de Consultant Snowflake
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.

Mission freelance
DevOps (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevOps (H/F) à Lyon, France. Contexte : Les missions attendues par le DevOps (H/F) : Mettre en place les bonnes pratiques DevSecOps Assurer les revues de code Etre garant de la qualité Concevoir et développer des architectures robustes et scalables Développer les modules terraform, intégrer les exigences cyber Maintenir et améliorer les pipelines CI/CD (GitLab) Mettre en place une stratégie de tests techniques (automatisation) Traiter les incidents Expertise Cloud AWS / Expertise Terraform / GitLab CI / Connaissance en administration Windows / VDI Certification AWS architect ou sysops associate + terraform associate

Offre d'emploi
Expert IAM
Ce que le client attend du candidat 1. Un profil “lead technico-fonctionnel” IAM Capable d’assurer le pont entre les équipes techniques, les architectes sécurité et les métiers . Capable de challenger les besoins (ne pas être un simple exécutant). Capable de concevoir et d’intégrer des solutions IAM robustes, cohérentes et durables. Force de proposition pour améliorer et rationaliser l’existant . 2. Une expertise confirmée en IAM et sécurité Maîtrise des standards IAM/Fédération d’identités : SAML, OAuth2, OpenID Connect, IDP, Federation, Identity Broker, etc. Bonne compréhension de la gouvernance des identités , des modèles d’accès et des comptes à privilèges (PAM) . Capacité à concevoir des architectures de sécurité IAM intégrant les dimensions Cloud, on-prem, DevSecOps . 3. Une connaissance pratique des solutions du marché Outils et environnements : CyberArk (PAM / gestion des secrets) Hashicorp Vault (secrets management) Broadcom Identity Suite LDAP / Active Directory SailPoint (fortement apprécié) Middleware / BDD : Oracle, SQL Server, WebSphere (WAS) 4. Des capacités d’ingénierie et d’intégration Savoir concevoir et modéliser des architectures IAM. Intégrer des briques dans des environnements hybrides (Cloud + On-Prem). Produire des livrables techniques et fonctionnels (HLD/LLD, dossiers d’architecture, procédures, schémas, guides). 5. Des compétences transverses en pilotage et communication Rédaction claire et structurée (documentation, livrables, support de présentation). Communication fluide avec toutes les parties prenantes (Achats, Sécurité, IT, Métiers). Anglais courant indispensable (documentation et échanges internationaux). Pédagogie pour former et accompagner les équipes N2/N3. En résumé Le client cherche un expert IAM senior , capable de : Concevoir et piloter des solutions IAM dans un environnement critique, Faire le lien entre la technique et le fonctionnel , Challenger, documenter et sécuriser les architectures d’accès, Et accompagner la transformation IAM de la banque (modernisation, standardisation, Cloud).

Mission freelance
Développeur Fullstack
Dans le cadre d’un renfort d’équipe, nous recherchons 3 développeur·ses Fullstack pour intervenir sur un projet stratégique dans un environnement agile, sécurisé et cloud-native. Tâches principales Cadrage & planification : rédaction des specs, estimation des charges, participation aux cérémonies agiles Conception technique : choix des technos, frameworks, outils Développement & qualité : implémentation du code (frontend, backend, API), tests unitaires et d’intégration Intégration & déploiement : packaging, documentation, mise en production avec les équipes DevSecOps Exploitation & maintenance : suivi des performances, correction des bugs, mise à jour des composants

Offre d'emploi
Consultant DEVOPS
Client : Public Lieu de mission : Paris Poste : Consultant DevOps Durée mission : longue Seniorité : +5 ans Date de démarrage : ASAP Missions principales Concevoir, mettre en œuvre et maintenir des pipelines CI/CD robustes (GitLab CI, GitHub Actions, Jenkins, Azure DevOps, Bamboo). Automatiser la création et la gestion d’infrastructures via des outils d’ Infrastructure as Code (Terraform, Ansible, Puppet, Chef, Pulumi). Accompagner les équipes de développement dans la conteneurisation et l’orchestration ( Docker, Kubernetes, OpenShift, Rancher, Helm ). Déployer et administrer des environnements Cloud (AWS, Azure, GCP, OVH, Scaleway). Assurer la supervision, le monitoring et l’alerte via des solutions Observabilité (Prometheus, Grafana, ELK/Elastic Stack, EFK, Splunk, Datadog, New Relic, AppDynamics). Intégrer la sécurité by design dans les pipelines (DevSecOps, Snyk, SonarQube, HashiCorp Vault, Aqua Security, Prisma Cloud). Mettre en place des solutions de scalabilité et de haute disponibilité (HAProxy, Nginx, Istio, Linkerd, Service Mesh). Contribuer à l’optimisation de la performance, de la résilience et des coûts des environnements Cloud et on-premise. Participer à la culture SRE (Site Reliability Engineering) et à l’industrialisation des bonnes pratiques DevOps. CI/CD : GitLab CI/CD, GitHub Actions, Jenkins, Azure DevOps, Bamboo, CircleCI OS : LINUX Conteneurisation & Orchestration : Docker, Kubernetes, OpenShift, Rancher, Helm, Istio IaC & Configuration Management : Terraform, Ansible, Puppet, Chef, Pulumi Cloud : AWS (EC2, EKS, Lambda, CloudFormation), Azure (AKS, DevOps, Functions), GCP (GKE, Cloud Build, Cloud Run), OVH, Scaleway Monitoring & Logging : Prometheus, Grafana, ELK/EFK Stack, Splunk, Datadog, New Relic Sécurité & DevSecOps : SonarQube, Snyk, HashiCorp Vault, Aqua Security, Prisma Cloud, Falco Networking & Middleware : Nginx, HAProxy, Traefik, Kong, RabbitMQ, Kafka Langages & Scripting : Python, Bash, Go, PowerShell, Groovy, YAML
Mission freelance
expert(e) AWS CLOUD
Bonjour, je recherche pour l'un de mes clients un(e) expert(e) AWS CLOUD . Mission : -réaliser un état des lieux de l’existant sur les chantiers applicatifs et techniques liés au DevSecOps -élaborer des spécifications fonctionnelles et techniques -concevoir, développer et documenter des services cloud automatisés, fiables et sécurisés -déployer les services dans le respect des jalons projet -assurer un support technique et fonctionnel pendant toute la durée de la mission -mettre en œuvre la réversibilité des infrastructures dans une logique multiclouds maîtrisée N'hésitez pas à revenir vers moi pour des informations complémentaires.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.