Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
OPS Sénior / Production Engineer (Lille)
Nous recherchons un OPS Sénior (7-10 ans d’expérience) pour renforcer une équipe dédiée à l’exploitation d’applications critiques. 🚀 Responsabilités principales Garantir l’application des processus de production et la cohérence des environnements, Piloter et organiser la gestion des événements impactant la production, Suivre et améliorer la QoS (monitoring, supervision, debug, incidentologie), Automatiser les processus et développer des outils DevOps adaptés, Accompagner les équipes sur les bonnes pratiques et l’adoption des outils, Contribuer activement à la diffusion d’une culture DevOps / Cloud AWS au sein de l’équipe. 🛠️ Compétences attendues Techniques principales : Kubernetes, AWS, Terraform, Datadog Helm, FluxCD, Cloudflare, Keycloak, Contour, Gitlab-CI Techniques secondaires (appréciées) : MongoDB, Java, Postman, Docker Soft skills : Capacité à sortir de sa zone de confort et à apprendre en continu, Esprit d’équipe et communication transverse, Approche proactive dans l’amélioration continue et la fiabilisation du RUN.
Mission freelance
Senior Software Engineer Back - Kotlin F/M
🛠️ Missions principales Participer à la conception technique et à la performance de la plateforme Assurer le suivi des déploiements en production Garantir la qualité du code et contribuer à son amélioration continue Participer à des conférences internes/externes et au recrutement de l'équipe ⚙️ Stack technique Langages : Kotlin, Typescript Cloud & DevOps : AWS (Fargate, Lambda, DynamoDB, etc.), Jenkins, Terraform Tests : Unitaires, Intégration, End-to-End Outils : Git, IntelliJ Bonus : Angular, Docker, Localstack
Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)
Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).

Mission freelance
Business Analyste Banque/Assurance Confirmé
Contexte Dans le cadre de l’évolution des systèmes d’information d’un grand groupe bancaire, nous recherchons un Business Analyste confirmé . L’environnement de travail est Agile (Scrum/Kanban, SAFe). Missions principales Recueillir, challenger, analyser et formaliser les besoins métiers puis les traduire en spécifications fonctionnelles claires et exploitables Préparer et animer des ateliers avec les équipes métiers Conception et maquettage des solutions fonctionnelles Analyser l’impact des solutions proposées sur les systèmes existants et les processus métiers Organiser et participer aux réunions de planification des sprints Alimenter et maintenir le backlog produit Assurer le suivi d’avancement des tickets en relation constante avec l’équipe de développement. Participer à la recette fonctionnelle des livrables Contribuer à la formation et à l’accompagnement des utilisateurs Compétences techniques et environnement Gestion de projet et collaboration : Jira, Confluence, Trello, Bitbucket, Git, Azure DevOps Cloud et DevOps : Amazon Web Services (AWS), Docker, Kubernetes, Jenkins, Ansible Systèmes de messagerie et traitement de données : Kafka, Flume, Zookeeper Bases de données et moteurs de recherche : Oracle, PostgreSQL, ElasticSearch, MySQL Monitoring et analyse : Splunk, Datadog, Kibana, Zipkin, Grafana, Gatling Outils de modélisation et documentation : UML, BPMN, Visio, Balsamiq, Figma Tests et qualité : Postman, SoapUI, Selenium, JUnit, Xray

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Expert Réseau & Sécurité / Lead SysOps (Azure) - Logiciel - IDF (H/F)
Missions Administrer, exploiter et optimiser Azure (compute, réseau, sécurité, gouvernance). IAM / Azure Entra ID : MFA, Zero Trust, accès conditionnels, revues d’habilitation. Firewalls ( Palo Alto ) : admin, supervision, MCO, patching. Monitoring & SecOps : Zabbix/Grafana/Otel, gestion alertes, CVE & remédiations , coordination SOC , Defender/EDR. Lead SysOps : planifier/assigner/prioriser, gérer risques, animer le CAB (ITIL). FinOps Azure : reporting coûts, optimisations (réservations/rightsizing). Support N2/N3 + documentation (carto, runbooks), conformité & SLA. Stack technique Must-have : Azure (idéalement AZ-104 / AZ-500 ), Entra ID , Palo Alto , Zabbix / OpenTelemetry / Grafana , PowerShell , Terraform , Ansible , Defender + EDR , ITIL , Jira / Git / Azure DevOps . Nice-to-have : AWS (NFW/WAF/Security Hub), RabbitMQ , SQL Server , FME Flow / GTF , ArcGIS . Environnement indicatif : ~ 130 VMs Azure dont 4 Palo Alto.

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
DevOps DevEx (Developpeur experience)
Un grand acteur du secteur média/streaming recherche un DevOps orienté Developer Experience (DevEx) pour renforcer ses équipes. L’objectif : améliorer l’ expérience développeur , simplifier les workflows CI/CD et accompagner les feature teams dans l’usage des environnements AWS / Kubernetes / Terraform . Missions : Améliorer la Developer Experience en outillant et automatisant les environnements de développement. Concevoir, maintenir et optimiser les pipelines CI/CD (GitLab, Jenkins, ArgoCD) en support des équipes de dev. Contribuer à la standardisation et l’industrialisation de l’ Infrastructure as Code (Terraform, Terragrunt). Collaborer étroitement avec les développeurs pour fluidifier l’onboarding, le packaging et le déploiement des applications. Intégrer les bonnes pratiques sécurité, observabilité et performance dès le cycle de développement. Promouvoir une culture d’amélioration continue et partager les bonnes pratiques DevOps Stack technique Cloud : AWS (EKS, EC2, RDS, Elasticache, OpenSearch, Lambda, IAM, VPC) Orchestration & Containers : Kubernetes, Docker, Helm CI/CD : GitLab CI, Jenkins, ArgoCD IaC : Terraform, Terragrunt, Atlantis Monitoring & Observabilité : Prometheus, Grafana, Datadog, Loki Langages pour scripts & outils : Python, Go, NodeJS, Shel
Mission freelance
Développeur Fullstack Java Angular
Contexte de la mission Rejoignez le pôle Tech d’un groupe international leader dans son secteur, au cœur d’un projet stratégique de modernisation et de transformation d’une plateforme clé générant plus de 90 % du chiffre d’affaires de l’activité. L’équipe gère cette plateforme historique (Java / Angular) et travaille sur son évolution vers une architecture plus moderne, évolutive et orientée services, tout en participant aux initiatives techniques du groupe à l’international. Vous intégrerez une équipe à taille humaine (3 internes + vous en renfort externe), avec l’appui de leads techniques pour vous accompagner. Vos missions Développer et maintenir les fonctionnalités existantes de la plateforme Concevoir et développer de nouvelles fonctionnalités en lien avec les équipes Produit, Design et QA Faire évoluer l’architecture vers des microservices et micro-frontends Participer à l’industrialisation et à l’automatisation (DevOps) Implémenter et maintenir les tests unitaires et d’intégration Contribuer à la transformation technique et à la modernisation de la stack Collaborer avec des équipes internationales sur certains sujets (anglais requis) Environnement technique Backend : Java, Spring Boot Frontend : Angular (versions récentes) Bases de données : PostgreSQL, DynamoDB API : GraphQL, REST Architecture : Microservices / micro-frontends DevOps : Docker, Jenkins Cloud : AWS (EC2, Lambda, RDS, DynamoDB) – Infrastructure-as-Code Méthodologie : Agile/Scrum Outils : Terraform, CloudFormation (apprécié)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.