Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka
Votre recherche renvoie 292 résultats.
Mission freelance
Développeur React / Node.js
JobiStart
Publiée le
Java
Node.js
React
1 an
400 €
Île-de-France, France
Missions principales : Développer et faire évoluer des microservices backend en Java / Spring Boot . Concevoir et maintenir des interfaces web performantes avec React.js et JavaScript moderne. Assurer la maintenance et le support des composants Node.js legacy durant la phase de transition technique. Participer à la conception technique et aux choix d’architecture en environnement microservices. Collaborer avec les équipes Product, Design, QA et développement pour la livraison des fonctionnalités. Garantir la performance, la sécurité et la scalabilité des applications. Rédiger un code propre, maintenable, documenté et testé (tests unitaires et d’intégration). Participer aux revues de code , aux rituels agiles et aux discussions techniques. Contribuer à l’ amélioration des pipelines CI/CD et aux processus de déploiement. Intervenir sur l’ optimisation des performances et le debugging des applications en production. Travailler sur des architectures événementielles (Kafka) et des APIs REST. Participer à l’évolution de l’infrastructure (Docker, Kubernetes, cloud).
Offre d'emploi
Directeur de projet technique - Lyon
VISIAN
Publiée le
Chef
Direction de projet
3 ans
60k-70k €
600-650 €
Lyon, Auvergne-Rhône-Alpes
Contexte Au sein de la Direction des Systèmes d’Information d’un grand groupe, vous intervenez dans le cadre d’un programme stratégique de transformation visant la modernisation d’une plateforme de données à grande échelle. L’environnement est multi-équipes et multi-sites, avec des enjeux forts de performance, de montée en charge, de fiabilité et d’alignement avec les besoins métiers. Mission principale Assurer le pilotage transverse d’un programme de transformation technique portant sur la migration et l’évolution de plusieurs plateformes data, en garantissant la cohérence globale, la maîtrise des risques et la fluidité des interactions entre équipes. Responsabilités Pilotage de programme Planifier et coordonner les différents chantiers techniques Synchroniser les équipes impliquées (data, cloud, architecture, exploitation, sécurité…) Assurer le suivi opérationnel et le reporting à différents niveaux Contribuer au cadrage et au suivi budgétaire Garantir le respect de la trajectoire globale de transformation Gestion des projets de migration Accompagner la migration de plateformes data existantes vers de nouvelles solutions Superviser l’évolution d’une plateforme Data Lake et d’architectures orientées microservices Veiller à la performance, la scalabilité et la robustesse des solutions Coordination des équipes Faciliter la collaboration entre équipes techniques et managers Identifier rapidement les risques, blocages et écarts Proposer des actions correctives adaptées Soutenir la montée en maturité d’équipes récentes Suivi et gouvernance Définir et piloter des indicateurs de performance (KPI) pertinents Produire des tableaux de bord d’avancement Assurer la visibilité globale du programme auprès du management Sécuriser la trajectoire globale plutôt que l’optimisation locale Environnement technique Plateformes de données et Data Lake Traitements batch et temps réel Architectures microservices Technologies Big Data (ex. Spark, Scala) Technologies backend (ex. Java) Environnements cloud ou hybrides Outils de streaming (ex. Kafka) Profil recherché Compétences techniques Solide expérience en pilotage de projets techniques complexes Bonne compréhension des architectures data et cloud Expérience des programmes de migration ou de transformation IT Capacité à interagir avec des experts techniques variés Compétences comportementales Excellente communication et leadership transversal Forte autonomie et capacité d’adaptation Esprit d’analyse et de synthèse Orientation résultats et gestion des risques Capacité à entrer rapidement dans des sujets complexes
Offre d'emploi
Architecte technique applicatif
Atlanse
Publiée le
Architecture
DAT
DevOps
3 ans
60k-70k €
550-600 €
Paris, France
Vous serez en charge de la conception et du pilotage des architectures techniques dans une logique de standardisation, mutualisation des services et industrialisation via l’Infrastructure as Code. Votre rôle Infrastructure & Automatisation · Concevoir, automatiser et maintenir des infrastructures Cloud via des outils IaC (Terraform, Ansible, etc.). · Gérer des environnements hybrides et multi-cloud Middleware & Architectures applicatives · Concevoir des architectures intégrant des couches d’intermédiation performantes et résilientes · Déployer des passerelles applicatives sécurisées (Reverse Proxy) et optimisées Flux de données & Intégration · Intégrer et transformer des données entre systèmes via ETL et MessageBus (Kafka) · Faciliter la circulation des données pour des usages analytiques et IA Sécurité & Gestion des secrets · Déployer et gérer HashiCorp Vault pour sécuriser les accès et les clés d’infrastructure et d’application · Garantir la conformité et la protection des données sensibles Architecture & Bonnes pratiques · Appliquer une architecture hexagonale pour séparer clairement les couches métier, d’infrastructure et d’interfaces · Rédiger et utiliser les documents d’architecture DAT, HLD et LLD · Standardiser les pratiques pour optimiser la qualité, la maintenabilité et le testing des systèmes
Mission freelance
Chef de projet IT Senior (H/F) - 69
Mindquest
Publiée le
Office 365
3 mois
110-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans un environnement bancaire à grande échelle (plus de 100 000 utilisateurs), vous intervenez au sein des équipes AppOps sur des projets stratégiques et à forte visibilité. Vous êtes responsable du pilotage de projets complexes liés au poste de travail et à l’environnement Microsoft 365, avec des enjeux importants de modernisation et de gestion d’obsolescence. Exemples de projets : Migration Windows 11 Déploiement OneDrive et services Microsoft 365 Obsolescence OS (RedHat 7 / 9) Obsolescence MySQL Upgrades d’infrastructure et monitoring Mission Pilotage & Coordination Piloter un portefeuille de projets IT Coordonner les équipes métiers, techniques et prestataires Garantir le respect des délais, budgets et engagements Animer les ateliers et comités de pilotage Anticiper les risques et gérer les environnements complexes Activités opérationnelles Suivi des projets dans Jira (récits, sous-tâches, plans d’action) Planification des ateliers avec les PO Rédaction des procédures, notes de cadrage et cahiers de recette Gestion des inter-dépendances via ServiceNow (RITM, RFC) Coordination des déploiements (SCCM / MECM) Lancement de pipelines via Git Suivi des déploiements et reporting Livrables attendus Planning et suivi projet Comptes rendus d’ateliers Plans d’actions Supports de présentation (COMOP) Notes de cadrage Cahiers de recette Reporting de déploiement Environnement technique Indispensable : Microsoft 365 (OneDrive, Teams, SharePoint, Exchange Online) Windows 10 / Windows 11 - Intune / SCCM / MECM - GPO / Entra ID Environnement Open Complémentaire : RedHat 7 / 9 MySQL Cloudera, Kafka Bases NoSQL (MongoDB, PostgreSQL, Redis…) Jira, ServiceNow, Git
Mission freelance
DevOps Engineer – Azure / Kubernetes / CI/CD
Templeton and Partners Limited
Publiée le
Azure
Azure DevOps
CI/CD
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
DevOps Engineer – Azure / Kubernetes / CI/CD Localisation : Clermont-Ferrand (Hybride) Durée : Mission longue – démarrage ASAP Type : Freelance Contexte Notre client renforce son équipe DevOps et recherche un ingénieur expérimenté pour industrialiser les pipelines CI/CD, superviser les environnements cloud et assurer la fiabilité des plateformes, notamment en production. Missions • Mise en place et maintenance des pipelines CI/CD • Déploiement, supervision et maintien en conditions opérationnelles • Mise en place de solutions de monitoring et gestion des incidents • Participation aux choix techniques et amélioration continue • Garantie des bonnes pratiques DevOps, sécurité et automatisation Environnement technique Azure, Kubernetes, GitLab CI, Kafka, PostgreSQL, MongoDB, Keycloak, Unix/Linux, architectures microservices. Profil recherché • Expérience confirmée en DevOps sur environnement cloud • Bonne maîtrise d’Azure et Kubernetes • Expérience CI/CD et exploitation production • Sensibilité aux sujets de sécurité et haute disponibilité Compétences appréciées : Java, bases de données, architectures event-driven.
Offre d'emploi
Tech Lead Java DevOps AWS
ASTRELYA
Publiée le
AWS Cloud
Java
Springboot
Hauts-de-Seine, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Dans le cadre de notre développement, nous recherchons pour un client tertiaire un Tech Lead Java DevOps AWS (H/F). Votre mission : Participation à un programme stratégique de refonte d’une plateforme BtoC à l’échelle internationale Environnement Agile Scrum, collaboratif et multiculturel Objectif : concevoir des solutions cloud innovantes, performantes et hautement scalables sur AWS Mise en œuvre des meilleures pratiques DevOps et CI/CD Concrètement, vous allez : Concevoir et développer des applications Java robustes et performantes Mettre en place des architectures microservices cloud-native sur AWS Contribuer activement au développement : codage revues de code tests optimisation des performances Définir, promouvoir et appliquer les bonnes pratiques en matière de développement, qualité et sécurité Encadrer et accompagner les développeurs Collaborer étroitement avec les équipes produit, architecture et data à l’international Votre futur environnement technique : Langages & frameworks : Java , Spring Boot Cloud & infrastructure : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & services : microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & sécurité : Datadog, Prisma Cloud Outils collaboratifs : Jira, Confluence Qui êtes-vous ? Ingénieur de formation ou équivalent Minimum 10 ans d’expérience Au moins 5 ans d’expérience sur des environnements DevOps / AWS Au moins 4 ans d’expérience en tant que Tech Lead Expérience confirmée en Agile Scrum et sur des projets internationaux Goût prononcé pour le partage de connaissances et l’amélioration continue Leadership et capacité à fédérer une équipe Sens de l’écoute et compréhension des enjeux techniques et métiers Communication claire et capacité à vulgariser des sujets complexes Esprit collaboratif et aisance dans un environnement multiculturel Proactivité, adaptabilité et sens de l’anticipation Pourquoi nous rejoindre ? Un terrain de jeu pour progresser : Formations, certifications, coaching technique , communautés d’expertise (Java, Cloud, DevOps, Data…) et participation à des projets innovants (IA, architectures Cloud, automatisation…). Un cadre de travail motivant : Projets variés et à forte valeur ajoutée , événements internes réguliers, afterworks et ateliers tech et salon (DevopsREX, Devoxx et ParisJUG…). Un engagement RSE : Ecovadis Gold, Signataire de la charte pour la diversité, du Pacte des Nations Unies et mise en place du Mécénat de compétences Votre futur process de recrutement : Entretien RH avec une de nos chargées de recrutement Test technique (test Kata interne ou un échange avec un de nos expert) Entretien final avec un de nos managers Chez Astrelya, nous construisons des solutions innovantes… mais surtout, nous construisons des parcours humains. Prêt(e) à rejoindre l’aventure ? Tous nos postes sont ouverts aux personnes en situation de handicap. #recrutement#TechLead#Java#AWS
Offre d'emploi
Engineering Manager Senior sur Maison Alfort
EterniTech
Publiée le
Angular
Datadog
Java
1 an
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Engineering Manager senior sur Maison Alfort Contexte Au sein d’une Direction Digitale engagée, vous interviendrez sur la conception, le développement et l’exploitation de produits et plateformes Fintech au service d’entrepreneurs, partenaires bancaires et collaborateurs internes. Organisation en Feature Teams pluridisciplinaires, culture forte d’exigence (qualité, performance, sécurité), amélioration continue, industrialisation et excellence d’ingénierie. Collaboration Produit & Tech au cœur du modèle. Vos missions Vision & Stratégie Technique Porter la vision technique long terme sur votre périmètre Animer les choix d’architecture avec les Tech Leads / Staff Engineers Garantir la cohérence avec l’écosystème plateforme & les enjeux métiers Management & Pilotage d’équipes Encadrement de 2 à 3 squads (8 à 10 ingénieurs max) Coaching individuel & collectif Développement des compétences (hard & soft skills) Mise en place et respect des standards techniques & organisationnels Gestion d’ingénieurs en prestation (ESN) Roadmap & Delivery Co-construction des roadmaps avec les Lead PM Arbitrage, priorisation, sécurisation des engagements Suivi de la vélocité & amélioration du “right first time” Réduction des incidents & amélioration de la stabilité Collaboration & Gouvernance Synchronisation inter-équipes (Digital / DSI / partenaires) Gestion proactive des dépendances Représentation en instances produit & tech Expertise attendue Architecture & Engineering Systèmes distribués, APIs REST, services web Qualité, testabilité, observabilité (logs/metrics/traces) SLO/SLA, performance, sécurité applicative CI/CD, gestion d’incidents, post-mortems Cloud public (AWS/GCP/Azure), IaC & automatisation Delivery & Process Pilotage par la valeur KPIs de stabilité & qualité Discovery ? Exécution sécurisée Amélioration continue des ways of working Leadership Coaching & développement des talents Communication claire & impactante Gestion des conflits & arbitrages Décision pragmatique orientée impact Stack & Environnement Frontend : Angular, TypeScript Backend : Java, Spring Boot, PostgreSQL Architecture : Microservices, APIs REST, Kafka CI/CD : Maven, GitLab CI, Argo CD Monitoring : Datadog Cloud & IaC : AWS (EKS, Lambda, Glue), Terraform, Atlantis Outils : GitLab, SonarQube, GitHub Copilot
Mission freelance
Développeur Confirmé Atoti / Java – Risk & PnL Temps Réel
JobiStart
Publiée le
Finance
Java
3 ans
400-630 €
Paris, France
Développeur Confirmé Atoti / Java – Risk & PnL Temps Réel 📍 Le Contexte & L’Enjeu (Projet Long Terme) Nous recherchons pour un acteur majeur de la BFI (Banque de Financement et d'Investissement) parisienne, un Développeur expérimenté pour intervenir au cœur des salles de marchés sur des problématiques de Data Visualisation Haute Performance . Il s'agit d'une mission de longue visibilité ( supérieure à 2 ans ), démarrant immédiatement, au sein d'une équipe Front / Risk IT. L'objectif est de développer et maintenir la chaîne de suivi des Risques de Marchés et du PnL en temps réel . 💎 L'Environnement Technique : "In-Memory & Low Latency" Vous évoluerez dans un environnement technique exigeant, centré sur l'analyse multidimensionnelle rapide et le traitement de flux continus. Cœur de la Stack : Atoti (Impératif) & Java . Architecture de Données : Cubes OLAP / ActivePivot, requêtage MDX . Flux de Données : Architecture orientée événements avec Kafka pour la gestion des données temps réel. Data Viz : Conception de dashboards analytiques complexes pour le monitoring. 🎯 Votre Mission En lien direct et étroit avec les équipes Métier ( Risk Managers & Traders ) et l'équipe IT, vous aurez pour responsabilités : Développement & Conception : Implémenter et faire évoluer les dashboards analytiques sous Atoti . Backend & Performance : Configurer et optimiser les cubes OLAP pour garantir des temps de réponse compatibles avec les exigences du Front Office. Intégration : Gérer l'alimentation des données via les flux temps réel (Kafka). Analyse : Comprendre les besoins fonctionnels (calcul de PnL, indicateurs de Risques) pour les traduire en solutions techniques performantes.
Mission freelance
Architecte Cloud & Hybrid (AWS / On-Premise)
Signe +
Publiée le
AWS Cloud
12 mois
720-760 €
Paris, France
Localisation Malakoff Télétravail : 2 jours / semaine (3 jours sur site) Contexte Environnement industriel Architecture Cloud public (AWS), Cloud privé on-premise et architectures hybrides Travail transverse avec équipes infrastructure, réseau, sécurité et DevOps Missions principales Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (AWS, on-premise, hybridation, réseaux, sécurité, data) Garantir la cohérence des patterns avec les standards d’entreprise et contraintes opérationnelles Valider la pertinence, la maturité et la faisabilité des patterns avec les experts techniques Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Collaborer étroitement avec les équipes infrastructure, réseau, sécurité et DevOps Environnement technique Cloud public : AWS (Compute, Storage, Network, IAM, Observability) Cloud privé on-premise : virtualisation, systèmes, réseaux, sécurité, stockage Conteneurisation : ROSA, OpenShift, EKS Middleware : Mulesoft, Talend, Kafka Architectures hybrides : VPN, Direct Connect, SD-WAN DevOps : Terraform (IaC), CI/CD, automatisation Compétences attendues Excellente maîtrise AWS Solide expérience des environnements on-premise Expérience des architectures hybrides Bonnes pratiques sécurité Connaissance appréciée des frameworks d’architecture (TOGAF, Archimate) Capacité de formalisation structurée Excellent sens de la communication Rigueur, autonomie, capacité d’analyse Contraintes spécifiques Nationalité française requise (contrôle primaire / habilitation minimum)
Mission freelance
Business Analyst /QA
Cherry Pick
Publiée le
Postman
Xray
12 mois
500-550 €
Plaisir, Île-de-France
Mission : En tant que business Analyst, vous intègrerez une équipe de développement en charge du Broadcasting des contenus clients sur nos mobiliers. Vous serez, ainsi en charge du moteur de playlist qui gère l’ordonnancement des contenus sur nos écrans suivants les contraintes des clients, de leurs campagnes publicitaires et des règles locales. Au cœur de la DSI Digitale, cette équipe prend en charge la gestion des contenus provenant des ventes traditionnelles et programmatique, ventes qui sont un enjeu stratégique de développement pour le digital. Ainsi vous serez amené à interagir à la fois avec les filiales et nos partenaires programmatiques. Activités : Vous comprenez et analysez les besoins et enjeux opérationnels. Vous assurez la stratégie et la maintenance des exigences de test Vous rédiger les tests manuels et automatiques Vous exécutez et suivez l’exécution des tests (validation métier & non-régression) Vous concevez et mettez à jour les données de tests Vous communiquez sur les résultats d’exécution des tests et des anomalies éventuelles Vous suivez la mise à disposition des environnements et versions Vous participez aux réunions de Go/no go de mise en production Vous participez à la conception fonctionnelle, et à la rédaction des user stories. Vous assistez le rôle de Product Owner et êtes son back-up en cas de congés. Vous assurez le lien entre les métiers et les équipes techniques. Vous êtes garant avec le product owner de l’architecture fonctionnelle. Vous remontez les alertes sur les événements pouvant impacter la tenue des engagements. Vous intervenez lors des incidents en sollicitant les ressources (internes ou externes) nécessaires Vous participez à alimenter les bases de connaissances fonctionnelles et applicatives Environnement métier & technique : Méthodes Agiles Jira (XRay) Selenium, Cucumber API REST, PostMan Kafka, Jenkins Elasticsearch, Grafana, Kibana Git Compétences métier & techniques requises (obligatoires) : Anglais opérationnel Rédaction et gestion d’exigences, de tests et d’anomalies Jira et plugin de gestion de test (XRay, …) Cypress, PostMan Conception de requêtes SQL Analyse et conception de fichiers JSON & XML Expérience en milieu agile Qualités humaines recherchées
Mission freelance
Lead Developer java/js
ESENCA
Publiée le
Angular
Java
Mongodb
1 an
Lille, Hauts-de-France
⚠️ Recherche exclusivement localisée dans la région Hauts-de-France (Nord). Contexte & Mission Au sein d’une Direction Industrie Digitale, dans l’équipe Negotiations & Sourcing , vous intervenez sur des produits stratégiques dédiés à la gestion des appels d’offres fournisseurs et des négociations. L’équipe est composée de : 3 Product Owners 4 Développeurs 1 Test Lead 1 Incident Manager 🎯 Objectif global Développer des solutions applicatives permettant de gérer les appels d’offres fournisseurs et les processus de négociation, dans un environnement digital orienté industrie. 🔎 Responsabilités principales1. Leadership technique Assurer la responsabilité technique de deux applications stratégiques. Proposer des conceptions techniques adaptées aux besoins métiers exprimés par le Product Owner. Garantir la cohérence, la qualité et la maintenabilité des solutions développées. Veiller au respect strict de la stack technique définie. 2. Développement Full Stack Développer des évolutions Back-end et Front-end . Concevoir et implémenter des règles de gestion complexes. Contribuer à une architecture API-first et événementielle. Participer à l’amélioration continue des performances et de la qualité du code. 3. Encadrement & montée en compétence Accompagner et faire progresser un développeur plus junior. Promouvoir les bonnes pratiques (clean code, tests, pair/mob programming). Contribuer à la diffusion des standards techniques au sein de l’équipe. 🧩 Présentation des produitsTRACKS Outil d’analyse des offres sous l’angle supply chain et coûts. Il recommande la meilleure combinaison fournisseur/circuit par unité opérationnelle et gamme, selon le coût total de possession (TCO). WEDEAL Plateforme d’échange permettant la validation et la mise à jour des conditions d’achat et logistiques à l’issue d’un appel d’offres. 🏗 Environnement & Architecture Architecture API-first et événementielle REST 3.0 (OpenAPI) pour les échanges inter micro-services Kafka pour la communication inter-applications Documentation embarquée via AsyncAPI Une maîtrise préalable de ces concepts et outils est indispensable. 💻 Compétences techniques requisesImpératif – Niveau Expert Java 21 / Spring Impératif – Niveau Confirmé Angular 17 (+ framework AG Grid) Vue.js 3.5 MongoDB Atlas Contraintes fortes Maîtrise complète de la stack technique Capacité à occuper un rôle de Lead Developer 🌍 Compétences linguistiques Français courant (impératif) Anglais lu et écrit – niveau B1/B2 (rédaction de user stories et documentations de référence) 📦 Livrables attendus Propositions de conception technique face aux besoins métiers Développements back et front conformes aux standards définis Accompagnement technique des développeurs plus juniors Contribution à la documentation technique et fonctionnelle 📅 Informations pratiques Disponibilité entretiens : dès que possible Démarrage : ASAP Durée : minimum 1 an
Mission freelance
Testeur technique
Codezys
Publiée le
API
Data visualisation
Grafana
12 mois
Nantes, Pays de la Loire
Sous la supervision d’un responsable d’intégration, la mission consiste à effectuer les tests techniques des modifications confiées à l’équipe, avant leur déploiement en production. L’activité de l’équipe est pilotée selon une méthodologie Agile, adoptant un mode hybride combinant Kanban et Sprint. Activités liées aux « Tests techniques » : Prendre connaissance du changement et de son contexte technique Contribuer à l’élaboration du plan de tests (stratégie de tests) Préparer les infrastructures nécessaires aux tests Réalisé les tests techniques Analyser et interpréter les résultats obtenus Participer au diagnostic en cas de dysfonctionnement Rédiger des rapports détaillés pour soutenir la décision de mise en production (GO/NOGO) Constituer ou actualiser le patrimoine de tests réutilisables pour les intégrations futures Effectuer le reporting auprès du Responsable d’intégration Contribuer à l’amélioration continue, notamment dans le domaine des tests Industrialiser les tests en utilisant des Planning de Intégration et de Contrôle (PIC) Environnement technique : Red Hat, OpenShift, conteneurisation, Tomcat, interfaces RIA/RWD (Angular), API REST, Java, Spring Boot, DataGrid, Kafka, MySQL, MongoDB, SQL Server, Gateway (AxWay), Python, etc. Outils utilisés : Néoload Kiibana (Théia) Grafana Jenkins BitBucket Confluence JIRA XL-Release / XL-Deploy Prometheus AppDynamics
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Mission freelance
[FBO] LeadTech DataOps - Niort - 1306
ISUPPLIER
Publiée le
9 mois
300-400 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) LeadTech DataOps – Référentiels pour une mission au sein d’un grand groupe du secteur assurance / services, dans un environnement Data Office / DataOps structuré. La mission s’inscrit dans une démarche d’industrialisation des usages Data, d’unification des pratiques d’exploitation et d’amélioration continue des environnements de déploiement. LeadTech DataOps Référentiels Contexte de mission L’équipe en charge du DataOps / Services Delivery Data pilote l’homogénéité des pratiques d’exploitation, le déploiement continu (cloud et on-prem) et la fiabilisation des usages autour des référentiels de données. Le/la consultant(e) interviendra en interface avec les équipes de conception, les release managers et les équipes de production. LeadTech DataOps Référentiels Objectifs principaux Déterminer les versions des composants en coordination avec les équipes de conception et release management Garantir la disponibilité et la stabilité des environnements (dev, test, CI/CD) Documenter les dépendances pour la supervision et le diagnostic Analyser les incidents (RCA) et suivre les plans de remédiation Gérer et documenter les configurations par environnement Vérifier la complétude des livrables (tests, documentation, conformité) et identifier les risques avant mise en production Participer à la définition et au suivi des exigences non fonctionnelles (sécurité, performance, scalabilité, disponibilité) Assurer la traçabilité des changements de configuration et de versions Automatiser les déploiements et maintenir les pipelines CI/CD. LeadTech DataOps Référentiels Profil recherché Expérience significative en DevOps / Release Management Bonne connaissance des contraintes de production Leadership, autonomie, réactivité, force de proposition Bon niveau de communication et capacité à travailler en équipe avec traçabilité des actions. LeadTech DataOps Référentiels Compétences techniques attendues Control-M Monitoring : Dynatrace / Grafana / Prometheus Informatica MDM / IDQ Couche d’échange : Tibco / Kafka / API Gateway NoSQL : MongoDB Hadoop : HDFS / Spark CI/CD & déploiement continu : GitLab / OpenShift API Management / REST Jira / Confluence / Easyvista / Google Workspace
Offre d'emploi
Développeur Full Stack Java / Angular – DSI (H/F)
Amontech
Publiée le
Angular
Java
Springboot
1 an
40k-45k €
300-440 €
Île-de-France, France
📍 Paris La Défense – 2 jours de télétravail après 3 mois ⏱ Démarrage rapide Dans le cadre d’un renfort au sein d’une DSI dynamique, nous recherchons un Développeur Full Stack pour intervenir sur des projets stratégiques à forte valeur ajoutée. 🎯 Vos missions Vous interviendrez au sein de deux équipes distinctes : 🔹 Développement Web B2B Conception et développement de nouveaux sites web destinés à des clients B2B Maintenance évolutive et corrective des plateformes existantes Travail au sein d’une équipe de 5 développeurs 🔹 Développement d’un outil BackOffice interne Développement d’une application interne (API + IHM) Participation à la refonte et au remplacement d’une solution existante Collaboration au sein d’une équipe de 6 développeurs 🔹 Maintenance applicative Maintenance évolutive et corrective d’un ensemble de modules 🛠 Stack techniqueBackend Java 8 / 11 / 17 / 21 Spring Boot JUnit / Mockito Maven SQL (Oracle & MySQL) Frontend Angular 17 à 21 PrimeNG Jasmine NodeJS Environnement & Outils REST / JSON / OpenAPI / SOAP Kafka / MQ Gitlab / SVN Docker Ubuntu IntelliJ / Eclipse / VS Code
Mission freelance
[LFR] Administration Datadog, Sénior à Saint-Denis - 1331
ISUPPLIER
Publiée le
10 mois
300-445 €
Saint-Denis, Île-de-France
Description and Location Objectifs • Prise en charge des demandes de supervision Datadog, • Réalisation de dashboards répondant aux besoins des demandeurs, • Réalisation de monitors et configuration de l’alarming, • Suivi des tâches et comptes-rendus. Description détaillée des tâches qui constituent la mission • Outillage et écosystème : Utiliser les outils mis à disposition, comprendre et répondre aux sollicitations des demandeurs (Solutions Métiers et Lignes de Services) et appréhender la structure organisationnelle. • Installation et Configuration : Installer et configurer les agents Datadog et autres composants nécessaires. • Modèles (Templates) : Développer et maintenir des modèles standards, de référence ou génériques de monitors et dashboards. • Supervision : Configurer des éléments de supervision (métriques, logs, etc.) pour monitorer le fonctionnement des applications. • Déclencheurs : Créer des monitors pour détecter des conditions anormales grâce à des seuils fixés avec les demandeurs et générer des alertes en cas de dépassement de ces seuils prédéfinis. • Alertes et Notifications : Configurer des actions pour envoyer des notifications (courriels, canal Teams, WebHooks, etc.) en cas d'alertes, et définir des escalades si les problèmes ne sont pas résolus. • Cartes et Tableaux de Bord : Créer des cartes réseau et des tableaux de bord pour visualiser l'état et les performances des différents éléments supervisés. • Maintien et Optimisation : Surveiller et maintenir en conditions opérationnelles le bon fonctionnement et les performances de la supervision mise en place, ainsi que veiller et accompagner les changements (évolution, migration, décommissionnement) pour assurer une supervision efficace et minimiser l'impact sur les ressources système et budgétaire. • Comptes-Rendus, Rapports et Analyse : Rendre compte de l’état d’avancement d’une tâche, présenter ses réalisations, générer des rapports, analyser les tendances et proposer des améliorations. Qualité • Travailler en cohérence avec les normes ISO de la DSI Résultats attendus et/ou livrables avec échéancier si besoin • Voir la description détaillée des tâches 5.1 Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Les compétences requises : • Expertise en administration Datadog (Agents Datadog, remontée de Metrics/Logs, création de dashboards, de monitors et de remontées d’alarmes). • Compétence confirmée dans les environnements Unix/Linux et Windows.. Les compétences souhaitées : • Notions de développement (Scripting Python, Shell, Terraform), • Utilisation d’APIs (requêtage http/REST, xml, json), • Connaissances basiques à intermédiaires sur des technologies variées (Ansible, Réseau, ESX, Shell, SGBD, Middlewares, Kubernetes, etc.) allant devoir être supervisées. 5.2 Environnement technique : SGBD PostgreSQL Oracle MONGODB Microsoft SQL Server 6 MySQL NoSQL Couchbase Oracle RDB sur Open VMS PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, WebLogic, CFT, MQ, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo, NIFI, KAFKA Plateformes/ logiciels Terraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes Observabilité Datadog, Splunk, Zabbix, Dynatrace, Nagios
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
292 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois