L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 520 résultats.
Mission freelance
Architecte Technique Web C# / .NET & IA / DevOps
Publiée le
C#
IA Générative
Web API
3 ans
550-650 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour l’un de nos clients grands comptes un Architecte Technique expérimenté sur C#/.NET, Web et IA , avec une forte expertise DevOps et Cloud (Azure) . Le poste allie architecture technique , veille technologique et accompagnement des équipes sur les bonnes pratiques DevOps. Missions principales Architecture et standardisation Définir et piloter l’architecture des composants du SI Veiller à l’uniformisation de l’écosystème DevOps , en arbitrant entre Kubernetes et App Services Garantir la cohérence et la qualité technique des projets Porter les standards et messages du groupe auprès des équipes Gestion des coûts et optimisation Assurer la maîtrise des coûts d’infrastructure Proposer des optimisations techniques et financières dans le cloud Participer à la veille technologique et à l’optimisation continue des infrastructures Sécurité et supervision Assurer une vigilance proactive sur la sécurité Garantir la résolution rapide des alertes critiques Participer à la mise en place de bonnes pratiques de sécurité et conformité
Offre d'emploi
Ingénieur de Production (H/F)
Publiée le
Ansible
38k-42k €
Grand Est, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia , et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Créé en 2017, Consort Luxembourg accompagne localement de grands comptes internationaux ainsi que des acteurs luxembourgeois de référence. Fort d’une équipe de 40 collaborateurs, et aujourd’hui positionné de façon transfrontalière, nous offrons à nos experts et consultants des opportunités de carrière au Luxembourg comme dans le Grand Est de la France. Proches de nos clients et de nos équipes, nous connaissons depuis notre création une croissance organique soutenue, portée par un dynamisme constant. Ingénieur de Production H/F C’est votre mission Vous êtes passionné·e par l’exploitation et l’automatisation des environnements applicatifs ? Ce poste est fait pour vous. En tant qu’ Ingénieur de Production , vous intégrerez une équipe de production applicative opérant sur des environnements critiques 24/7 . Votre rôle consistera à administrer des applications monétiques , assurer leur disponibilité et contribuer à leur évolution dans un contexte DevOps et Cloud. Côté build : Participer à l’intégration de nouvelles applications et à leur mise en production ; Concevoir et maintenir les normes et règles de bonne gestion (sécurité, qualité, cohérence) ; Automatiser les déploiements et les tests via des outils comme Terraform ou Ansible ; Contribuer à l’amélioration des processus et outils d’industrialisation ; Participer aux projets d’évolution et d’intégration Cloud ( GCP ). Côté run : Administrer et superviser les applications monétiques en production ; Gérer les incidents et assurer le maintien en conditions opérationnelles (MCO) ; Participer aux astreintes et interventions planifiées (nuit/week-end) ; Réaliser les diagnostics, analyses de performance et propositions d’optimisation ( FinOps ) ; Rédiger les rapports techniques et assurer un suivi rigoureux des interventions. C’est votre parcours Vous avez au moins 3 à 5 ans d’expérience en administration ou production applicative dans des environnements exigeants. Rigueur, réactivité et sens du service sont vos maîtres-mots. Vous aimez travailler sur des contextes critiques où la fiabilité et la qualité d’exécution font la différence. C’est votre expertise Systèmes : Windows (confirmé) Environnements : OpenShift, DevOps (confirmé) Cloud : GCP (junior) Automatisation / Scripting : Terraform, Ansible, scripts divers Langues : Très bon niveau d’anglais professionnel C’est votre manière de faire équipe Esprit d’équipe et communication claire ; Grande rigueur d’exécution et sens des priorités ; Capacité à travailler sous contrainte horaire (astreintes, interventions 24/7) ; Proactivité et goût de l’amélioration continue. C’est notre engagement Chez Consort Group , vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un·e ingénieur·e d’affaires Un test ou un échange technique avec un·e de nos expert·es Un dernier point avec votre futur·e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Strasbourg Contrat : CDI ou Freelance longue durée Télétravail : Partiel selon client ou mission Salaire : de 38 K€ à 42 K€ brut annuel (selon expérience) Famille métier : Production / DevOps / Cloud Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Ingénieur IA H/F
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Offre d'emploi
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)
Publiée le
Azure Kubernetes Service (AKS)
CI/CD
3 ans
Île-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Offre d'emploi
Ingénieur OPS
Publiée le
Dynatrace
Linux
1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions principales Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab...)) Facilité de déploiement des solutions Mettre à disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils Remonte les propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents)) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture technique Participation aux réunions de définition de l'architecture (SATS/CASA) Contrôl de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Monitoring et supervision Définition et mettre en place/faire évoluer le Monitoring Mettre en place la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Documentation et pilotage Mettre en place les consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Rôle consultatif De part son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences techniques attendues (maîtrise) Linux / Windows / Docker / Kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes) / Oracle / MongoDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle Monitoring : Dynatrace OS Linux et Windows, AIX Langages : YAML, Python, Shell Toolchain et automatisation : GitLab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, GitLab-CI, XL Release La certification éditeur peut être un critère différenciant. Connaissances en architecture cloud Modèles de services Cloud : IaaS, PaaS, SaaS Grandes familles de cloud (privé, public, hybride) Concepts liés aux conteneurs (micro-services) Concepts liés aux machines virtuelles (para-virtualisation, émulation) Enjeux de l'Infrastructure as Code Concepts du Cloud Computing Environnement DevOps et Agile
Mission freelance
DevOps Infrastructure Engineer (H/F)
Publiée le
36 mois
350-450 €
Valence, Auvergne-Rhône-Alpes
Je recherche actuellement pour mon client un.e DevOps Infrastructure Engineer (H/F) L'équipe de mon client supporte les outils et l'infrastructure des équipes de développement (embarqué et serveurs) dans leur mise en place de chaines de CI/CD sur une « stack » applicative commune. L'équipe est constituée de 6 collaborateurs sur deux sites (Suresnes et Valence dans la Drôme). Cette intégration continue est constituée de la « stack » suivante : Jira pour le suivi des tickets ; BitBucket comme gestionnaire de dépôts Git et solution de « code review » ; Jenkins pour l'intégration continue ; Artifactory pour les dépôts d'artefacts ; XRay (plugin Jira) pour les tests ; SonarQube/Blackduck pour le SAST et le SCA. La configuration de ces applications (création d'espaces, gestion des permissions, etc.) est réalisée à l'aide d'un outil interne de « self-service » basé sur les concepts GitOps. L'équipe Software Factory Infrastructure est une équipe IT dédiée, en charge de déployer et maintenir cette solution applicative et son infrastructure. Description L'objectif de la mission est de renforcer l'équipe sur les actions courantes qui sont les suivantes : La gestion du cycle de vie des solutions La documentation et le référencement de chaque changement dans les outils Participer au développement continu de la plateforme de Monitoring (PRTG). Contribuer à notre dynamique d'Infrastructure as a Code via Ansible Automation Platform. Participer à l'automatisation des tâches récurrentes. Assurer la MCO de l'ensemble des services (applications et infrastructure). Contribuer aux divers espaces documentaires. Monter en compétence sur les diverses applications afin de pouvoir accompagner fonctionnellement nos utilisateurs. Environnement technique Infrastructure : VMWare, Ansible, Kubernetes, Ubuntu, Fortigate, VMware Advanced Network Load Balancer, Zerto, PostgreSQL, … IT Tooling : ELK, PRTG, Crowd, Landscape, Kibana, … Applications : Bitbucket, Jira, Confluence, Jenkins, Sonarqube, Artifactory, Blackduck Compétences requises Maitrise des concepts DevOps et GitOps Maitrise de l'administration de système Linux Ubuntu Maitrise des environnements de virtualisation (VMWare & Azure) Maitrise des outils d' « Infrastructure as a Code » (Ansible, Terraform) Maitrise du réseau (Fortinet), Load Balancing, VLAN Expérience avérée en mise en œuvre et gestion d'outils de containerisation (K8S) Connaissance des outils de gestion de log (ELK) et de Monitoring (PRTG) Connaissance en base de données (PostgreSQL) Capacité de planifier et mettre en œuvre Capacité à comprendre et analyser avant d'agir Capacité à prendre en charge le support de ses solutions Connaissance de Git et Jenkins Connaissance d'au moins un langage de programmation (Python) Anglais courant à l'oral et à l'écrit Savoir parler chinois (mandarin) est un plus
Offre d'emploi
PIXIE - Azure DevOps – Intégration Continue et Automatisation - Paris - Long terme
Publiée le
.NET
Azure
Azure DevOps
3 ans
Paris, France
Télétravail partiel
Bonjour, Pour l’un de mes clients, je recherche un(e) : Description et livrables de la prestation Au sein de la Direction Technologie, l’expert Azure DevOps rejoindra l’équipe DevOps Tools & Automation (DOTA) composée d’une quinzaine d’ingénieurs OPS et DEV. Il travaille en mode DevOps sur la plateforme d’intégration continue et apporte son support à toutes les guildes qui utilisent cette PIC. Il collabore avec les experts logiciels des guildes pour répondre aux enjeux de delivery vis-à-vis du métier. Il coordonne les parties prenantes et assure l’interface avec les solutions partagées ou fournies par le groupe. Activités : • Support aux guildes DEV et OPS sur la création et la maintenance de Build et Release • Administration de la plateforme Azure DevOps • Administration des outils Sonar, SCA, Checkmarx, Docker et Nexus • Garantir l’exploitabilité, la robustesse et la résilience des solutions Expertise souhaitée : • Minimum 3 ans d’expérience sur Azure DevOps • Connaissance des parties Build/Release, administration des utilisateurs/groupes et des services connections • Connaissance de l’API Azure DevOps • Expérience en développement .NET ou Java • Connaissance du fonctionnement des VMSS et de Terraform Optionnel : • Connaissance de SCA, Sonar, Nexus et Checkmarx Mobilité : • 2 jours sur site obligatoires par semaine • Jusqu’à 3 jours en télétravail possibles par semaine Localisation : Lille en priorité ou Nanterre Si votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai rapidement vers vous pour échanger.
Offre d'emploi
Consultant Data Databricks (F/H)
Publiée le
Apache Spark
Databricks
DevOps
3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Offre d'emploi
Platform Engineer Azure ou/et GCP
Publiée le
Azure
GitLab CI
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Responsabilités principales Contexte Multicloud et mise en place des LZ cloud de confiance (S3NS / BLEU). Concevoir et maintenir les modules Terraform (socle & projets). Maintenir un catalogue de communs (versioning, qualité, documentation). Concevoir et opérer les pipelines CI/CD standardisés. Mettre en œuvre les contrôles sécurité et conformité “shift-left”. Produire la documentation DevEx (guides, templates, bonnes pratiques). Stack principale : Terraform avancé (modules, tests, versioning), CI/CD (GitLab CI, Azure DevOps, Cloud Build), Azure (BLEU) & GCP (S3NS)
Mission freelance
Développeur ASP.NET / Azure Senior (H/F)
Publiée le
ASP.NET
Azure
6 mois
400-500 €
Toulouse, Occitanie
Notre client, éditeur de logiciels reconnu sur son marché, recherche un Développeur ASP.NET / Azure Senior (H/F) à Toulouse pour renforcer son équipe technique dans le cadre d’une mission stratégique autour de l’évolution de ses solutions. Vous interviendrez sur un environnement cloud moderne et au cœur des enjeux de performance, de sécurité. Vos missions : \- Concevoir, développer et optimiser des applications ASP.NET / .NET Core. \- Participer aux choix techniques et à l’architecture applicative. \- Intervenir sur les services **Microsoft Azure** (Functions, App Services, DevOps, Storage…). \- Contribuer à l’évolution technique et fonctionnelle des solutions logicielles. \- Participer aux rituels agiles, revues de code et ateliers techniques. \- Assurer la qualité, la maintenabilité et la performance des projets livrés. Stack dominante : \- ASP.NET / C# / .NET Core \- Microsoft Azure (Functions, App Services, DevOps…) \- Environnements logiciels complexes et distribués
Mission freelance
Lead Dev .Net Angular (H/F)
Publiée le
.NET
.NET CORE
.NET Framework
10 jours
400-420 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses équipes techniques, notre client, éditeur de logiciels basé en Île-de-France , recherche un Lead Developer .NET / Angular pour piloter les développements et accompagner l’équipe sur des projets à forte valeur ajoutée. Localisation : Île-de-France Télétravail : Full remote après 1 mois de présence sur site Démarrage : ASAP / à convenir Type : Freelance Prérequis techniques Backend Très bonne maîtrise de .NET / .NET Core / Conception d’API REST Entity Framework / Dapper SQL Server (optimisation des performances) Frontend Excellente maîtrise d’ Angular (v12+) TypeScript, HTML5, CSS3 Architecture frontend, composants réutilisables DevOps / Environnement Git, CI/CD (Azure DevOps, GitLab CI ou équivalent) Conteneurisation Docker (souhaitée) Cloud Azure (apprécié) Méthodologies Agile / Scrum
Mission freelance
Profil Habilitable - Ingénieur Cloud AWS / DevOps
Publiée le
AWS Cloud
DevOps
6 mois
500-520 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Profil habilitable national ou européen habilitable Participer à la conception, au développement et à l’automatisation du déploiement d’infrastructures et d’applications sur le Cloud AWS , ainsi qu’à la migration des environnements existants vers le cloud, dans un contexte sécurisé et hautement disponible. 🔧 Responsabilités Concevoir et mettre en œuvre les architectures Cloud AWS (réseaux, sécurité, stockage, compute, containers). Automatiser la création et le déploiement des environnements (Infrastructure as Code). Accompagner la migration des applications vers AWS (Lift & Shift, refactoring, conteneurisation). Mettre en place et maintenir les chaînes CI/CD pour le déploiement continu. Garantir la sécurité, la conformité et la traçabilité des déploiements selon les exigences d’habilitation. Surveiller la performance, la disponibilité et les coûts des infrastructures cloud (FinOps). Participer aux choix technologiques et à l’amélioration continue des outils et processus DevOps.
Mission freelance
Devops/Cloudops
Publiée le
CI/CD
Datadog
DevOps
3 mois
400-440 €
Lille, Hauts-de-France
Télétravail partiel
KOBI est la solution digitale qui permet l'agrégation des différents éléments qui composent un site à la façon d'un puzzle (microfrontends). Les sites marchands et Professionnels ainsi que les portails applicatifs internes sont basés sur KOBI. Notre solution est cloud native et scallable pour supporter des volumétries importantes en restant hyper performants. En tant qu’Ops Engineer KOBI, le rôle est de : * Garantir la disponibilité, la performance et la résilience de KOBI * Assurer le bon fonctionnement, la maintenance et le support de la plateforme en lien avec les équipes Produits, Sites et Infrastructure. * Définir et opérer les environnements de développement, intégration et production, en optimisant coûts et ressources cloud. * Automatiser, fiabiliser et sécuriser les déploiements via la chaîne CI/CD (approche DevSecOps). * Entretenir la culture DevOps dans l’équipe et accompagner l’amélioration continue des pratiques. * Définir et suivre les KPIs de performance et de fiabilité (monitoring, observabilité, qualité de service). * Contribuer activement à la gestion des incidents et à leur résolution rapide L'équipe est composée d'une Product Owner, d'une testeuse, d'un Tech Lead et de développeurs front et back. Le candidat / la candidate devra impérativement participer aux astreintes (1semaine (soir et weekend) toutes les 4, 5 ou 6 semaines). Il / Elle sera en contact régulier avec la communauté des ops et développeurs, la maitrise de l'Anglais professionnel est donc un pré-requis. 2j sur site obligatoires (lundi et jeudi au moment du besoin)
Mission freelance
DevOps Python/Terraform & Scrum Master
Publiée le
Ansible
Python
Terraform
1 an
400-600 €
Paris, France
Télétravail partiel
Pour l'un de nos clients historiques, nous recherchons un profil DevOps pouvant prendre le rôle de Scrum Master dans une squad. Cette équipe n'a plus de Scrum Master en place, il faut donc être capable de prendre ce rôle (à 30% environs), et instaurer les bonnes pratique de l'agilité, tout en ayant un rôile de DevOps à part entière de l'équipe. Projet : Mise en place d'une marketplace de services autour d'un Cloud de confiance. Beaucoup de sujets de migration, et sujets autour de l'IaC sont à prévoir.
Offre d'emploi
DevOps/SysOps/LLM/RAG
Publiée le
DevOps
Large Language Model (LLM)
RAG
3 ans
47k-97k €
400-800 €
Île-de-France, France
Périmètre DevOps & SysOps 1. Automatisation & Déploiement Mise en place d’un pipeline CI/CD complet : build, tests, déploiements et releases. Déploiement automatisé de l’API backend et de tous les modules associés. Gestion de l’infrastructure pour garantir une mise en production fiable et répétable. 2. Supervision & Observabilité Mise en œuvre de la surveillance des composants LLM et IA générative (logs, métriques, alertes). Monitoring et reporting des KPIs de performance, d’usage et de qualité. 3. Sécurité & Conformité Configuration et gestion de l’authentification, autorisation et gestion des accès. Respect des exigences sécurité du Groupe BNP et des règles d’accessibilité RGAA . Mise en place de la gestion et rotation des secrets, tokens et credentials. 4. Exploitation & Résilience Rédaction de la documentation technique d’exploitation et d’intégration. Mise en place et automatisation des procédures de sauvegarde et restauration (données, contextes, historiques). Gestion de la scalabilité : montée en charge, load-balancing, optimisation des performances. Définition et application de la politique de gestion des incidents, astreintes et SLA. Expertises fonctionnelles et techniques : Compétences requises Compétences techniques essentielles (synthèse) 1. Cloud & Infrastructure Maîtrise d’un cloud (AWS, Azure, GCP) Infrastructure as Code : Terraform, Ansible Architectures scalables et haute disponibilité 2. Conteneurs & Orchestration Docker Kubernetes / OpenShift (déploiement, scaling, secrets, monitoring) 3. CI/CD & Automatisation Pipelines GitLab CI, GitHub Actions, Jenkins Automatisation build/test/deploy Sécurisation des pipelines 4. Observabilité Logs : ELK, Splunk Monitoring : Prometheus, Grafana, Datadog Suivi spécifique LLM/IA : performance, coûts, dérives 5. Sécurité Authentification/autorisation (OAuth2, OIDC, SAML) Gestion des secrets (Vault, KMS) Sécurité API et conformité RGAA 6. Backend & APIs Compréhension des APIs REST/GraphQL Connaissance de base en Python / Node.js / Java Microservices 7. Bases de données PostgreSQL, MongoDB, Redis Backup/restore, stockage objet 8. Exploitation & Incidents Runbooks, SLA, ITIL Tableaux de bord et KPIs d’usage/performance 9. IA Générative (bonus fortement recommandé) Appels API LLM Gestion des prompts et contextes Notions de RAG et sécurité IA
Mission freelance
Expert BDD AWS
Publiée le
AWS Cloud
AWS Cloudwatch
DevOps
6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
520 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois