Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris

Votre recherche renvoie 55 résultats.
Freelance
CDI

Offre d'emploi
Développeur SENIOR C# .Net Core TDD BDD (9 ans et plus)

Digistrat consulting
Publiée le
.NET
.NET CORE
C#

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 🤝Description détaillée Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur c# backend ayant pratiqué les méthodes TDD et BDD. Au sein du département informatique en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de développement .Net pour contribuer au développement autour de la nouvelle plateforme orientée services (SOA) ayant comme socle Kafka et Cassandra.
CDI

Offre d'emploi
Ingénieur Infrastructure H/F

Le Groupe SYD
Publiée le
Ansible
Bash
ClickHouse

45k-55k €
Paris, France
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Infrastructure H/F 📍 Lieu : Paris (75) 🏠 Télétravail : 3 jours sur site par semaine 📝 Contrat : CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur financier , engagé dans la modernisation, la sécurisation et l’industrialisation de ses plateformes Data à grande échelle. En tant qu’ Ingénieur Infrastructure tu interviens sur le maintien en conditions opérationnelles, l’évolution technologique et la performance d’environnements Data complexes (CDP 7.1.x, Hadoop, stockage distribué, ingestion API…). 🎯 Tu auras pour missions de : Tu auras pour missions de : Recueillir les besoins métiers. Développer l’ingestion (API) et concevoir les stockages (Ozone, Hadoop…). Automatiser les traitements (batchs/pipelines). Nettoyer, transformer et structurer les données. Documenter les bases et garantir la conformité RGPD. Assurer la maintenance corrective/évolutive. Déployer et industrialiser les modèles ML. Assurer validation, monitoring et robustesse. Participer au design, à l’installation et à la qualification des plateformes. Contribuer à l’industrialisation continue. Support aux équipes métiers/applicatives/infra. Communication régulière au chef de projet. Astreintes + interventions HNO. Amplitude équipe : 8h–19h. 🧰 Stack technique : Cloudera CDP 7.1.x : HBase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, Kerberos, LDAP Systèmes : RedHat 8, RedHat 9 Langages & DevOps : Python, Bash, Java, Maven, Gradle, Ansible, DevOps Stockage & Data : Ozone, Hadoop, Druid, Clickhouse Traitement & orchestration : Airflow, Flink, Trino, Starburst Containers : Openshift, Kubernetes (K8s), Cloudera Data Services Autres : écosystème Apache, automatisation, migration clusters Hadoop
Freelance

Mission freelance
[SCH] Développeur C# .NET - 1324

ISUPPLIER
Publiée le

10 mois
380-400 €
Paris, France
Dans le cadre d’un plan stratégique et de la transformation de l’architecture Pre-Trade, l’équipe cherche à repenser processus et architecture applicative, en collaboration étroite avec les métiers. Objectifs forts : robustesse, performance, scalabilité, avec interactions régulières avec architectes et utilisateurs finaux (environnement finance/marchés). Mission : -Développer et faire évoluer des composants C#/.NET orientés performance et résilience (architecture, patterns, code quality). -Concevoir/consommer des API REST pour l’intégration avec d’autres systèmes. -Travailler sur la couche données SQL : requêtes, optimisation, performance, index. -Contribuer au front Angular (interfaces robustes, bonnes pratiques). -Intégrer des flux via Kafka (producers/consumers, topics, offsets, schémas). -Participer aux déploiements en environnement OpenShift (conteneurs, CI/CD, scaling, sécurité). -Participer au cadrage : recueil besoins, spécifications techniques, traçabilité, évaluation de solutions. Profil attendu : -Expert C#/.NET avec forte culture architecture (OO, design patterns, data structures). -Habitué à des environnements exigeants en performance/latence et forte fiabilité. -Autonome sur SQL (optimisation) et API REST (design, intégration). -À l’aise avec Kafka et la logique streaming/événementiel. -Capable d’évoluer sur OpenShift et d’interagir avec CI/CD / déploiements. -Compréhension du contexte services financiers (trading / positions / instruments) ou forte capacité à monter rapidement. -Anglais courant.
Freelance

Mission freelance
ARCHITECTE APPLICATIF / ARCHITECTE TECHNIQUE (H/F)

Link Consulting
Publiée le
Kubernetes
SQL

6 mois
580-680 €
Paris, France
Votre mission : être l’interface agile entre les métiers et l’architecture SI Notre client, acteur reconnu du secteur digital, recherche son futur Architecte Applicatif / Architecte Technique (H/F), pour son son site de PARIS, dans le cadre d’un renforcement de son équipe Architecture au sein d’un SI en pleine modernisation. Vos missions : Intégré(e) à une équipe d’architectes expérimentés, vous devrez : * Concevoir des architectures applicatives et techniques robustes, principalement en environnement on‑premise * Analyser les besoins techniques des projets et proposer des solutions pragmatiques, claires et alignées avec les standards internes * Intervenir de manière transverse auprès de plusieurs équipes projet, de la conception jusqu’à la mise en production * Participer à la définition des standards techniques et des architectures cibles * Contribuer à la préparation ou à la validation des éléments nécessaires à l’exploitation * Assurer une communication synthétique et efficace avec des interlocuteurs variés dans un contexte multisite Compétences techniques : Kubernetes : maîtrise indispensable Kafka : maîtrise indispensable Architecture microservices Bases de données SQL Très bonne connaissance des environnements on‑premise Bonnes notions en sécurité applicative (appréciées) Connaissance du monde de l’éditique, de la numérisation ou du KYC (appréciée mais non indispensable)
Freelance
CDI

Offre d'emploi
Développeur Java/Data confirmé

VISIAN
Publiée le
Java
Mongodb

1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Freelance

Mission freelance
Expert tests de performance

CAT-AMANIA
Publiée le
JMeter
Performance testing

6 mois
400-700 €
Paris, France
Votre rôle et vos principales missions En tant que Consultant Test de Performance vous serez en charge du cadrage et de l’exécution des tests de performance. Responsabilités principales Assurer le pilotage complet et la réalisation opérationnelle des tests de performance et de charge, depuis la phase de cadrage (stratégie, périmètre, exigences, architecture cible) jusqu’à l’exécution (scripts, campagnes, analyses, recommandations). 1. Cadrage - Définition et préparation des tests de performance Objectifs : Garantir un cadrage clair, complet et industrialisable des campagnes de tests de performance, en alignement avec : · les enjeux métier (SLA, coûts, criticité) · les contraintes techniques (architecture, volumétrie, sécurité) · les objectifs de performance (latence, throughput, capacité, endurance, robustesse) Responsabilités clés 1.1. Analyse du besoin et des exigences · Recueillir les besoins métier et techniques auprès des PO, architectes, équipes projets. · Identifier les objectifs : seuils de charge, scénarios critiques, SLA, KPI. · Étudier le fonctionnement applicatif et les flux techniques (IHM, API, batch). 1.2. Analyse d’architecture · Examiner l’architecture technique, logicielle et cloud · Identifier les composants sensibles : bases de données, middleware, frontaux, bus, API gateways, queues. · Proposer si besoin des évolutions ou optimisations préalables à la campagne. 1.3. Définition de la stratégie de test · Définir les types de tests : charge stress / limites endurance / vieillissement tests aux pics robustesse / défaillance · Déterminer les environnements nécessaires et leurs prérequis. · Proposer des outils adaptés : JMeter, Gatling, NeoLoad, LoadRunner, Performance Center. 1.4. Élaboration des plans de tests · Conception détaillée des scénarios utilisateurs simulés. · Définition du pacing, des répartitions, des montées en charge, des jeux de données. · Spécification des métriques collectées : applicatives (logs, APM, temps de réponse) systèmes (CPU, I/O, mémoire, réseau) infrastructure (monitoring cloud / on-prem) 1.5. Organisation & pilotage · Planification des campagnes. · Coordination avec les équipes Dev / Ops / Réseau / Infra. · Animation des ateliers de cadrage et réunions clés. 2. Exécution — Réalisation opérationnelle des tests de performance Objectifs : Construire, exécuter et analyser les tests de performance afin de : · valider les exigences de charge · détecter les bottlenecks · sécuriser les mises en production · recommander des optimisations techniques Responsabilités clés 2.1. Préparation de l’environnement · Vérification de la conformité des environnements (volumétrie, monitoring, données) · Mise en place ou adaptation de la collecte des métriques 2.2. Conception et réalisation des scripts · Développement de scripts de charge (Web, API REST, Webservices, message brokers — Kafka, MQ…). · Gestion des corrélations, paramètres, jeux de données, injections massives. · Validation technique des scripts avec les équipes applicatives. 2.3. Exécution des campagnes · Lancements contrôlés et pilotés des tests. · Gestion du Run : incidents, ajustement de charge, redémarrages, validations. · Réalisation de campagnes répétées selon besoin (1 à 2 campagnes / semaine, selon contexte). 2.4. Analyse et diagnostic · Analyse des résultats : temps de réponse taux d’erreur saturation CPU/RAM/I/O comportement des backend et middleware · Identification des goulots d'étranglement et points de contention. · Propositions de solutions correctives : dimensionnement, tuning (BD, JVM, Kafka, API), optimisation réseau, configuration AWS. 2.5. Reporting & restitution · Reporting journalier/hebdomadaire. · Rédaction de rapports de test de performance : synthèse exécutive détails techniques recommandations · Présentation aux équipes projet et au management. 3. Compétences clés attendues Techniques · Outils de performance : JMeter, Gatling, NeoLoad, LoadRunner, Performance Center · APM / Observabilité : Grafana, Kibana, Elastic Stack, Dynatrace, AppDynamics · Architectures cloud AWS : EC2, ECS/ECR, Lambda, VPC, WAF, CloudWatch, autoscaling · Architectures microservices : Kafka, API Gateway, Tomcat, PostgreSQL, Oracle… · Scripting : Python, Shell, Java / Scala · CI/CD : Jenkins, XLD/XLR, Terraform/Terragrunt Méthodologies · Agile (Scrum/Kanban) · Cycle en V · Stratégie de test · Cadrage & AMOA technique Soft skills · Capacité de pilotage · Aptitude à vulgariser les résultats techniques · Communication transverse (Dev, Ops, Réseau, Métier) · Analyse & diagnostic 4. Livrables attendus Volet Cadrage · Stratégie de tests de performance · Plans de tests détaillés · Dossier d’architecture testée · Planning des campagnes · Environnement prêt à l'exécution Volet Exécution · Scripts de test · Rapports d’exécution de campagne · Analyses détaillées et synthèses exécutives · Recommandations & plan d’action · Contribution à l’amélioration continue Environnement & outils · Jira, Confluence, Xray · Cucumber, BDD, Gherkin, Vulcain (outil interne) 🎯Votre profil Formation : Bac+5 - Master avec une spécialisation dans un secteur technique ou commercial ou un équivalent avec une école spécialisée. Expérience : · Entre 8 et 10 ans d’expérience en test de perforamnce · Votre maîtrise des standards ISTQB, votre capacité à structurer des processus robustes et votre aisance à collaborer avec des équipes pluridisciplinaires font de vous un véritable référent qualité. · Vous savez allier vision stratégique et opérationnalité, tout en accompagnant les équipes vers des pratiques plus matures. · Solide expérience du travail en environnement transverse, avec une capacité démontrée à mobiliser et influencer les équipes par l’impact et la collaboration. Langues : Français courant (C2), Anglais professionnel (B2-C1)
CDI

Offre d'emploi
Data Engineer Banque(F/H)

CELAD
Publiée le

45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance

Mission freelance
Expert Middleware

Signe +
Publiée le
Middleware

12 mois
400-520 €
Paris, France
L’Expert Middleware assure la conception, la mise en œuvre, l’exploitation et l’optimisation des plateformes middleware critiques de l’entreprise. Il garantit la disponibilité, la performance, la sécurité et la continuité de service des briques d’intégration. Il intervient en expertise transverse auprès des équipes projets et sécurise les engagements de service (SLA, support N3, astreintes). Responsabilités principales Architecture et conception Participer à la définition des architectures middleware (ESB, API Management, brokers, serveurs d’applications, ETL). Contribuer au choix des solutions techniques en fonction des besoins métier et des contraintes SI. Définir les standards d’architecture et les bonnes pratiques d’intégration. Accompagner les projets dans les phases de cadrage technique. Implémentation et configuration Installer, configurer et administrer les solutions middleware (IBM MQ, Kafka, WebLogic, JBoss, Tomcat, WebSphere…). Mettre en place les flux d’intégration applicative et les services Web (REST / SOAP). Déployer et sécuriser les API via des API Gateway (ex : Kong). Implémenter les mécanismes de sécurité (authentification, chiffrement, gestion des accès). Exploitation et maintenance (MCO) Assurer la supervision des plateformes middleware (performance, disponibilité, capacité). Intervenir en support N3 sur les incidents critiques en lien avec les équipes d’exploitation. Gérer les changements complexes et les évolutions techniques. Réaliser les montées de version et l’application des correctifs. Garantir la documentation des architectures, procédures et configurations. Optimisation et amélioration continue Identifier et mettre en œuvre des optimisations de performance et de scalabilité. Automatiser les tâches d’administration et de déploiement (scripts, pipelines CI/CD). Participer à l’amélioration des pratiques DevOps et à l’industrialisation des environnements. Support et expertise transverse Apporter un support technique aux équipes de développement et d’intégration. Former les équipes aux bonnes pratiques middleware. Participer aux cellules de crise et aux astreintes si nécessaire. Compétences techniques requises Concepts et architecture Intégration applicative : EAI, SOA, Microservices, API Management Architecture distribuée et systèmes orientés événements Middleware Serveurs d’applications : JBoss EAP, Apache Tomcat, WebSphere, Oracle WebLogic Brokers de messages / streaming : IBM MQ, Apache Kafka, RabbitMQ, ActiveMQ Transfert de fichiers : XFB Gateway, GoAnywhere MFT Protocoles : FTP, SFTP, FTPS, PeSIT API Gateway : REST, SOAP, Kong Langages et automatisation Scripting : Shell, Python, Perl, Ansible Développement : Java, Go Systèmes et outils OS : Linux, Windows Server Monitoring : Prometheus, Grafana, ELK Stack, Nagios CI/CD et pratiques DevOps Qualités attendues Forte capacité d’analyse et de résolution de problèmes complexes Rigueur, autonomie et sens des responsabilités Bon relationnel et capacité à travailler en transverse Gestion des priorités et résistance à la pression Curiosité technique et veille technologique active Profil recherché (indicatif) Bac +5 informatique ou équivalent Expérience significative (5 à 10+ ans) sur des environnements middleware critiques Expérience en production / exploitation fortement appréciée Anglais technique
Freelance

Mission freelance
Développeur Python (FastAPI/Django) H/F

LeHibou
Publiée le
Django
FastAPI
Python

6 mois
500 €
Paris, France
Notre client dans le secteur High-tech recherche un Développeur Back End Python H/F Descriptif de la mission: Notre client dans le secteur de la tech a besoin d'un développeur Python senior. Les missions : Développer des API robustes et scalables avec Python et FastAPI Écrire un code propre, testé et maintenable, conformément aux bonnes pratiques Participer aux revues de code et contribuer aux décisions architecturales Travailler avec des files de messages et des bases de données pour assurer la cohérence des données entre services Déployer et surveiller les services dans notre environnement GCP/Kubernetes Contribuer à la documentation technique et au partage de connaissances Profil: 7+ ans d’expérience en développement backend, dont 5+ ans en Python Expérience confirmée dans la migration d’un monolithe vers une architecture microservices Maîtrise de FastAPI ; expérience Django appréciée Excellentes compétences en conception d’API REST Très bon niveau d’anglais (écrit et oral) Sens de la qualité, rigueur et souci de la documentation Stack technique Python (FastAPI, Django), SQLAlchemy PostgreSQL, Redis, Kafka, RabbitMQ GCP, Kubernetes (GKE), Docker, Datadog, ArgoCD, CircleCI, GitHub Compétences / Qualités indispensables: Python,micro-service,fast api, django
Freelance
CDI
CDD

Offre d'emploi
(Golang / React) Full-Stack Senior

FIRST CONSEIL
Publiée le
AI
Go (langage)
React

12 mois
Paris, France
Contexte Dans le cadre d’un programme de modernisation d’une plateforme digitale interne à forte visibilité, nous recherchons un(e) développeur(se) Full-Stack senior pour rejoindre une équipe orientée produits. La plateforme centralise la gestion, la commande et la consommation de services IT au sein d’un grand groupe international, avec des enjeux de scalabilité, performance et qualité logicielle. L’environnement est technique, exigeant et structuré autour de bonnes pratiques d’ingénierie. Missions Développement de nouvelles fonctionnalités end-to-end Conception et développement de services backend en Golang Exposition d’APIs REST robustes et bien structurées Développement et maintenance de composants frontend en React / TypeScript Collaboration avec les équipes UX/UI Amélioration continue du code (refactoring, optimisation, maintenabilité) Analyse et résolution d’incidents en environnement de production Contribution aux choix techniques et aux bonnes pratiques d’architecture Stack techniqueBackend Golang Architectures modernes (Clean Architecture, Hexagonale, CQRS, Event Sourcing) PostgreSQL Redis Kafka REST API Frontend JavaScript / TypeScript React HTML5 / CSS moderne Design system basé sur composants Storybook ou équivalent Autres Git Méthodologie Agile Authentification moderne (JWT, OAuth2, OIDC)
CDI

Offre d'emploi
Ingénieur DevOps / Cloud – OpenStack / Docker / Ansible

TOHTEM IT
Publiée le

45k-55k €
Paris, France
Contexte de la mission Dans le cadre d’un projet pour le ministère de l’Intérieur , nous recherchons un Ingénieur DevOps expérimenté afin de renforcer les activités d’intégration, d’exploitation et de transformation cloud des applications. La mission s’inscrit dans un environnement technique exigeant et sécurisé, avec des enjeux autour de l’automatisation des déploiements, de la supervision des applications et de la migration vers les plateformes cloud du ministère . Le consultant interviendra en étroite collaboration avec les équipes de développement et d’exploitation afin de garantir la qualité des livraisons applicatives et la stabilité des environnements. Missions principales Réceptionner et contrôler les packages applicatifs livrés par les équipes de développement Installer les applications à l’aide des outils du ministère ( Forge DTNUM , Ansible ) Maintenir et faire évoluer les procédures et dossiers d’installation Participer à la construction des versions applicatives Assister les équipes de développement dans la gestion des évolutions et des releases Analyser et qualifier les anomalies détectées en phase de recette Participer à l’ exploitation et au traitement des incidents en production Contribuer à la migration vers les plateformes cloud du ministère (PI Gen2 / PI Native) Veiller au respect des normes de sécurité et des bonnes pratiques OPS Livrables attendus Mise à jour et partage de la documentation technique Contribution au partage de connaissances avec la communauté OPS Suivi des activités via les outils de pilotage ( JIRA, Kanban ) Mise en place de solutions de supervision et monitoring Gestion et suivi des demandes d’ouverture de flux réseau Déploiement et maintien d’outils d’observabilité (Prometheus, Grafana) Environnement technique Systèmes & Réseaux Linux ( Debian ) Administration système avancée Cloud & Conteneurisation OpenStack OpenShift Docker Podman Infrastructure as Code Ansible Terraform Terragrunt Bases de données & Middleware PostgreSQL Redis Kafka Consul Etcd Supervision & Observabilité Elasticsearch Prometheus Grafana AlertManager NodeExporter Pratiques DevOps CI/CD Automatisation des déploiements Revue de code Documentation technique
CDD
CDI
Freelance

Offre d'emploi
DEVOPS Platform Engineer - Niveau 3

KEONI CONSULTING
Publiée le
Grafana
Linux
Terraform

18 mois
20k-60k €
100-500 €
Paris, France
Contexte Nous recherchons un Devops de Platform Engineer pour répondre aux besoins des & équipes de fabrication applicatives. Au sein de la Platform Engineering dans la tribe, le Platform Engineer sera en charge de l’intégration et l’administration des offres. MISSIONS • Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d’un ou plusieurs langages de programmation, notamment Python • Accompagné les clients internes « ME » projet sur la livraison de leurs applications dans le cloud • Être support des « ME » en cas de bug ou anomalie sur leur livraison • Assurer les installations des logiciels fournis par les éditeurs • Concevoir, industrialiser et maintenir des pipelines CI/CD pour les offres IaaS / PaaS de la Direction Technique, en respectant les standards internes (GitHub Actions, Jenkins, ArgoCD) • Installer et paramétrer le progiciel et l’adapter aux exigences du client • Automatiser le provisioning et la configuration des offres Platform Engineering • Développer des playbooks Ansible et des modules Terraform • Installation et Intégration des produits DT d’observabilité (Grafana, LOKI, Instana ELK • , Prometheus) • Automatiser les tests et la validation technique • Installation et Intégration des produits Socle de la Platform Engineering (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) • Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d’assurer la cohabitation de l’ensemble des composants techniques et applicatifs des environnements de tests. • Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l’environnement technique. • Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. • Acquérir une maîtrise des offres d’infrastructures du cloud provider « GTE » pertinentes sur ce périmètre • Rédiger les scénarios de test & identification des outils de benchmarking • Communiquer les résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service avec des cas d’usage à destination des fabrications RÉSULTATS ATTENDUS Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations • Être support des « ME » en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers avec « GTE » • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure • Préparation et présentation des résultats de performance • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein de l’équipe d’accompagnement projets • Être garant du modèle d’intégration du socle de conteneurisation avec les systèmes d’échange, et d’une manière générale l’ensemble de l’écosystème • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage
CDI
Freelance

Offre d'emploi
Architecte technique applicatif

Atlanse
Publiée le
Architecture
DAT
DevOps

3 ans
60k-70k €
550-600 €
Paris, France
Vous serez en charge de la conception et du pilotage des architectures techniques dans une logique de standardisation, mutualisation des services et industrialisation via l’Infrastructure as Code. Votre rôle Infrastructure & Automatisation · Concevoir, automatiser et maintenir des infrastructures Cloud via des outils IaC (Terraform, Ansible, etc.). · Gérer des environnements hybrides et multi-cloud Middleware & Architectures applicatives · Concevoir des architectures intégrant des couches d’intermédiation performantes et résilientes · Déployer des passerelles applicatives sécurisées (Reverse Proxy) et optimisées Flux de données & Intégration · Intégrer et transformer des données entre systèmes via ETL et MessageBus (Kafka) · Faciliter la circulation des données pour des usages analytiques et IA Sécurité & Gestion des secrets · Déployer et gérer HashiCorp Vault pour sécuriser les accès et les clés d’infrastructure et d’application · Garantir la conformité et la protection des données sensibles Architecture & Bonnes pratiques · Appliquer une architecture hexagonale pour séparer clairement les couches métier, d’infrastructure et d’interfaces · Rédiger et utiliser les documents d’architecture DAT, HLD et LLD · Standardiser les pratiques pour optimiser la qualité, la maintenabilité et le testing des systèmes
Freelance

Mission freelance
Développeur Confirmé Atoti / Java – Risk & PnL Temps Réel

JobiStart
Publiée le
Finance
Java

3 ans
400-630 €
Paris, France
Développeur Confirmé Atoti / Java – Risk & PnL Temps Réel 📍 Le Contexte & L’Enjeu (Projet Long Terme) Nous recherchons pour un acteur majeur de la BFI (Banque de Financement et d'Investissement) parisienne, un Développeur expérimenté pour intervenir au cœur des salles de marchés sur des problématiques de Data Visualisation Haute Performance . Il s'agit d'une mission de longue visibilité ( supérieure à 2 ans ), démarrant immédiatement, au sein d'une équipe Front / Risk IT. L'objectif est de développer et maintenir la chaîne de suivi des Risques de Marchés et du PnL en temps réel . 💎 L'Environnement Technique : "In-Memory & Low Latency" Vous évoluerez dans un environnement technique exigeant, centré sur l'analyse multidimensionnelle rapide et le traitement de flux continus. Cœur de la Stack : Atoti (Impératif) & Java . Architecture de Données : Cubes OLAP / ActivePivot, requêtage MDX . Flux de Données : Architecture orientée événements avec Kafka pour la gestion des données temps réel. Data Viz : Conception de dashboards analytiques complexes pour le monitoring. 🎯 Votre Mission En lien direct et étroit avec les équipes Métier ( Risk Managers & Traders ) et l'équipe IT, vous aurez pour responsabilités : Développement & Conception : Implémenter et faire évoluer les dashboards analytiques sous Atoti . Backend & Performance : Configurer et optimiser les cubes OLAP pour garantir des temps de réponse compatibles avec les exigences du Front Office. Intégration : Gérer l'alimentation des données via les flux temps réel (Kafka). Analyse : Comprendre les besoins fonctionnels (calcul de PnL, indicateurs de Risques) pour les traduire en solutions techniques performantes.
Freelance

Mission freelance
Architecte Cloud & Hybrid (AWS / On-Premise)

Signe +
Publiée le
AWS Cloud

12 mois
720-760 €
Paris, France
Localisation Malakoff Télétravail : 2 jours / semaine (3 jours sur site) Contexte Environnement industriel Architecture Cloud public (AWS), Cloud privé on-premise et architectures hybrides Travail transverse avec équipes infrastructure, réseau, sécurité et DevOps Missions principales Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (AWS, on-premise, hybridation, réseaux, sécurité, data) Garantir la cohérence des patterns avec les standards d’entreprise et contraintes opérationnelles Valider la pertinence, la maturité et la faisabilité des patterns avec les experts techniques Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Collaborer étroitement avec les équipes infrastructure, réseau, sécurité et DevOps Environnement technique Cloud public : AWS (Compute, Storage, Network, IAM, Observability) Cloud privé on-premise : virtualisation, systèmes, réseaux, sécurité, stockage Conteneurisation : ROSA, OpenShift, EKS Middleware : Mulesoft, Talend, Kafka Architectures hybrides : VPN, Direct Connect, SD-WAN DevOps : Terraform (IaC), CI/CD, automatisation Compétences attendues Excellente maîtrise AWS Solide expérience des environnements on-premise Expérience des architectures hybrides Bonnes pratiques sécurité Connaissance appréciée des frameworks d’architecture (TOGAF, Archimate) Capacité de formalisation structurée Excellent sens de la communication Rigueur, autonomie, capacité d’analyse Contraintes spécifiques Nationalité française requise (contrôle primaire / habilitation minimum)

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

55 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous