L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 962 résultats.
Offre d'emploi
Lead Developer Node.js / AWS
Recrut Info
Publiée le
AWS Cloud
Node.js
52k-67k €
69009, Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
Mission freelance
Tech Lead Power App
CAT-AMANIA
Publiée le
Power Apps
12 mois
400-590 €
Charleville-Mézières, Grand Est
Dans le cadre du renforcement de notre équipe digitale, nous recherchons un Tech Lead Power Apps / Dataverse pour concevoir, structurer et faire évoluer des applications métier à forte valeur ajoutée au sein de l’écosystème Microsoft Power Platform . Le poste s’inscrit dans une vision long terme autour de l’IA Microsoft , avec l’intégration progressive de Copilot et des usages d’IA générative au cœur des processus métiers. 🧠 Tes missions : Concevoir l’architecture des solutions Power Apps (Canvas & Model-Driven) Définir et optimiser les modèles de données sous Dataverse Encadrer techniquement une équipe de développeurs Power Platform Garantir les bonnes pratiques (sécurité, performance, maintenabilité, gouvernance) Participer aux choix d’architecture et aux arbitrages techniques Concevoir et automatiser des workflows via Power Automate Être force de proposition sur l’usage de Copilot et de l’IA générative dans les applications métiers Accompagner les métiers dans l’adoption des solutions digitales augmentées par l’IA 🤖 IA & vision Microsoft (un vrai plus) Sans être obligatoire, une sensibilité forte à la vision IA de Microsoft est recherchée : Intérêt pour Copilot (Power Platform, Microsoft 365, Dataverse) Compréhension des enjeux d’ IA générative dans les applications métiers Capacité à identifier des cas d’usage concrets : aide à la saisie intelligente analyse de données automatisation avancée assistants métiers Vision responsable de l’IA (sécurité, gouvernance, sobriété des usages) 🔧 Stack & environnement Power Apps (Canvas, Model-Driven) Dataverse Power Automate Copilot / AI Builder / services IA Microsoft Intégrations via API / Connecteurs / Azure AD Environnement Microsoft 365 & Azure
Offre d'emploi
Développeur Full Stack Java Senior (H/F)
Audensiel
Publiée le
Java
Rest
Spring
Nantes, Pays de la Loire
Vous interviendrez sur un programme stratégique avec un fort enjeu de modernisation, performance et fiabilité . 💻 Environnement technique Frontend : Vue.js 3 Backend : Java 11 / Spring Architecture : Clean Architecture Base de données : SQL API : REST ⚙️ Vos missions Participer à la conception technique des solutions Développer des fonctionnalités en full stack (Java / Vue.js) Rédiger et optimiser des requêtes SQL complexes Contribuer aux revues de code Améliorer la qualité et la performance des applications Participer à l’ amélioration continue des bonnes pratiques
Mission freelance
Product Owner ServiceNow HRSD - H/F
Be Resilient Group (BRG)
Publiée le
ServiceNow
6 mois
600-700 €
Courbevoie, Île-de-France
Vos missions : · Pilotage de la Roadmap : Définir et prioriser le backlog produit en alignant les besoins métiers RH avec les capacités standards de la plateforme ServiceNow. · Expertise HRSD : Traduire les processus RH complexes (gestion des case, base de connaissances RH, portail employé) en user stories actionnables. · Focus Onboarding : Concevoir des parcours d'intégration fluides impliquant plusieurs départements (IT, Logistique, Paie) via l'orchestration des tâches ServiceNow. · User Experience (UX) : Veiller à ce que l'Employee Center soit intuitif, mobile-friendly et réponde aux besoins réels des collaborateurs. · Conduite du Changement : Accompagner les équipes RH dans l'adoption de l'outil et animer les démonstrations (sprints reviews). · QA & Recette : Valider la conformité des développements par rapport aux critères d'acceptation et coordonner les phases de test (UAT).
Offre d'emploi
Business Analyst - Niveau 2 (Confirmé)
Codezys
Publiée le
Confluence
Gestion des risques
JIRA
38 160-43 500 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission L'Hypervision est l'entité responsable de la supervision et de la gestion des incidents concernant plusieurs chaînes communicantes, dans le but d'assurer la performance optimale en production. Le profil sélectionné rejoindra l’équipe de Pilotage de la Production, intégrée à l’Hypervision de la chaîne communicante « Marché de Masse ». Sa mission inclura le suivi des performances en production, la télédistribution des logiciels sur le parc de compteurs Linky et les concentrateurs, ainsi que la conception de tableaux de bord pour l’Hypervision et les opérations de supervision. Le candidat idéal est un data analyste doté d’une forte appétence pour la data, d’une sensibilité métier, d’un excellent relationnel, ainsi que d'une capacité à animer et à présenter. Une expérience préalable dans le traitement et l’analyse de données est indispensable. Le projet requiert une expérience comprise entre 2 et 4 années. Objectifs et livrables Activité principale Le profil retenu sera chargé de : Suivre et analyser un ou plusieurs indicateurs de performance à l’échelle nationale et en région (DR). Expliquer les variations et mettre en œuvre des actions correctives. Concevoir des tableaux de bord de pilotage ou opérationnels pour le suivi de la performance. Consolider les données et produire des rapports analytiques sur les variations de performance. Maîtriser le fonctionnement de la chaîne communicante « Marché de Masse ». Assurer le suivi de tous les événements liés à la production. Préparer, animer et représenter la production du Marché de Masse lors des différents comités. Analyser, préparer et animer des réunions autour des indicateurs de performance, en coordination avec les parties prenantes. Investiguer de manière autonome d’éventuelles anomalies ou signaux faibles dans les données, en proposant des pistes d’analyse non envisagées initialement. Remettre en question les processus existants et proposer des axes d’optimisation basés sur les analyses effectuées. Identifier et activer des leviers d’amélioration en collaboration avec les équipes métiers et techniques. Être référent sur l’indicateur en proposant une évolution de la méthode de calcul, du périmètre ou de sa pertinence. Participer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe. Activité secondaire Assurer le suivi de la performance dans le cadre de pilotes et d’expérimentations. Suivre la performance sur des périmètres spécifiques, en fonction des actualités de la production. Capitaliser et partager les connaissances via la rédaction de documents. Rédiger et diffuser un reporting quotidien transversal à l’ensemble des chaînes.
Offre d'emploi
Chef de Projet IT – Outils & Méthodes (J2EE) (H/F)
AVA2I
Publiée le
Eclipse
J2EE / Java EE
Microsoft SQL Server
1 an
Île-de-France, France
Le/La Chef de Projet IT est responsable du pilotage des projets liés aux outils internes des lignes métiers, depuis la collecte des besoins jusqu’à la mise en production et le support utilisateur, dans un environnement J2EE. 🧩 Missions principales1. Recueil et cadrage des besoins Identifier et analyser les besoins métiers auprès des utilisateurs Animer des ateliers avec les parties prenantes Formaliser les exigences fonctionnelles et techniques 2. Rédaction des spécifications Rédiger les cahiers des charges détaillés Traduire les besoins métiers en spécifications exploitables par les développeurs Garantir la cohérence avec les standards IT et GFD 3. Pilotage de projet Planifier et suivre l’avancement des projets Coordonner les équipes techniques (développeurs, MOE, etc.) Gérer les priorités, risques et arbitrages Assurer le respect des délais, coûts et qualité 4. Suivi des livrables et recette Vérifier la conformité des livrables avec les attentes Organiser et piloter les phases de recette Valider les mises en production 5. Support et accompagnement utilisateurs Assurer un support fonctionnel et technique de niveau 1/2 Accompagner les utilisateurs dans la prise en main des outils Participer à l’amélioration continue des applications
Mission freelance
IA Ready Lead
ESENCA
Publiée le
Agent IA
GenAI
Pilotage
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Ready Lead pilote la préparation et la structuration des données et connaissances nécessaires aux systèmes d’intelligence artificielle. Il/elle encadre une équipe dédiée à la mise en qualité des contenus et à leur exploitation optimale pour les solutions IA (copilots, agents, RAG). Encadrement Management d’une équipe spécialisée pouvant inclure : Knowledge Manager IA Ready Data / IA Ready Analyst Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de la conformité et de l’adoption Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets spécialisés Mission Le/la IA Ready Lead est responsable de la préparation fonctionnelle, sémantique et organisationnelle des données utilisées par les solutions d’intelligence artificielle. Il/elle garantit la disponibilité, la qualité, la cohérence et la traçabilité des bases de connaissances, et définit les standards permettant d’optimiser la performance des systèmes IA. Responsabilités principales 1. Définition de la stratégie IA Ready Définir la stratégie de préparation des données pour l’IA Identifier et cartographier les sources de connaissances Prioriser les sources en fonction des cas d’usage Définir l’architecture fonctionnelle des bases de connaissances 2. Standards de structuration et performance RAG Définir les standards de structuration des contenus (taxonomie, tagging, hiérarchie) Définir les règles de segmentation (chunking) adaptées aux usages IA Fixer les niveaux de granularité optimaux pour la recherche par similarité Définir les critères de qualité permettant d’améliorer la pertinence des réponses 3. Pilotage de la préparation des contenus Qualifier les besoins de contenus avec les équipes IA Delivery Superviser la structuration, le nettoyage et l’enrichissement des données Définir les critères d’acceptation IA Ready (qualité, complétude, fraîcheur) Garantir la cohérence sémantique et métier des bases de connaissances 4. Coordination transverse Collaborer avec les équipes IT pour l’ingestion et la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour assurer l’adéquation avec les cas d’usage Organiser les boucles de feedback entre usage et amélioration des contenus 5. Gouvernance et documentation Définir les standards de documentation des bases de connaissances Mettre en place les règles de gouvernance (ownership, validation, versioning) Structurer les processus de mise à jour et de maintenance Garantir la traçabilité des sources et des transformations 6. Qualité et fiabilité des données Définir les règles de qualité des données IA Mettre en place des contrôles et indicateurs de qualité Suivre les écarts et piloter les plans d’amélioration Garantir la fiabilité et la lisibilité des contenus 7. Industrialisation et réutilisation Concevoir des modèles de connaissances réutilisables Standardiser les pratiques IA Ready Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques au sein de l’organisation 8. Contribution à la conformité Assurer la traçabilité des sources utilisées Veiller au respect des règles de protection des données Contribuer aux exigences des équipes en charge de la conformité
Mission freelance
DevOps Kubernetes Ansible Linux Sophia Antipolis
WorldWide People
Publiée le
DevOps
6 mois
340-350 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
DevOps Kubernetes Ansible Linux Sophia Antipolis La mission consiste à assurer l’exploitation, la fiabilité et l’évolution des plateformes techniques supportant PnS. Le poste est centré sur les problématiques d’industrialisation, de déploiement et d’exploitation d’applications data déployées sur Kubernetes. • - Exploitation et maintien en conditions opérationnelles des plateformes PnS • - Déploiement et configuration des composants applicatifs sur Kubernetes • - Automatisation des tâches d’administration et de déploiement via Ansible • - Gestion des incidents, analyse des causes racines et amélioration continue • - Contribution aux évolutions d’architecture et aux choix techniques Dans un premier temps, les activités s’inscrivent dans un contexte on-premise. Le poste évoluera ensuite vers l’accompagnement de la transformation de la plateforme vers le cloud (GCP), en collaboration avec les équipes de développement et d’architecture. Responsabilités • - Administrer et exploiter des clusters Kubernetes • - Mettre en œuvre l’automatisation des environnements (Ansible) • - Garantir la disponibilité, la performance et la sécurité des plateformes • - Mettre en place et maintenir les outils de supervision et de monitoring • - Participer aux phases de mise en production et aux astreintes si nécessaire • - Collaborer étroitement avec les équipes Dev, Data et Architecture Pré-requis • - Expérience significative en tant que DevOps / OPS (minimum 4 ans) • - Très bonne maîtrise de Kubernetes (exploitation, déploiement, troubleshooting) • - Maîtrise d’Ansible pour l’automatisation et la configuration des environnements • - Solides compétences systèmes Linux • - Culture exploitation, fiabilité et qualité de service Compétences appréciées • - Connaissance des environnements cloud, idéalement GCP • - Notions sur les architectures data et les flux de données • - Expérience avec des outils de monitoring et de logging (Prometheus, Grafana, ELK, etc.) • - Sensibilité aux problématiques de sécurité et de performance
Offre d'emploi
Tech Lead Automatisation - Exploitation des Solutions de Sécurité
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Type de poste : Au sein de la Direction Cyber et Résilience et plus précisément pour le Département Étude Solutions Sécurité (ESS), vous serez amené à apporter vos compétences d’automatisation au sein d'équipes réparties entre la France & la Pologne. · Vous travaillerez au sein de l’équipe Support et Opérations Solutions Sécurité (SOS) en charge de l’intégration, l’exploitation des solutions de sécurité en assurant le MCO (Maintien en condition opérationnelle) et MCS (Maintien en condition sécurité) de ses solutions. · Les activités de l’équipe sont en forte transformation et le rôle premier pour cette mission est d’appuyer cette transformation en répondant aux besoins d’industrialisation (intégration, exploitation, check conf, supervision, circuit de la demande) via des solutions d’automatisation et de workflows d’orchestration. Missions principales : Automatisation des configurations et contrôle de conformité : · Concevoir et maintenir des scripts (Python, PowerShell, Ansible) et outils d’automatisation pour la configuration des opérations courantes sur les solutions de sécurité, en utilisant notamment AAP et Camunda pour orchestrer les workflows. · Développer des mécanismes de détection des écarts de configuration et de remédiation automatique ou semi-automatique. Supervision et observabilité : · Configurer et optimiser les outils de supervision (Zabbix, Grafana). · Automatiser la collecte, l’analyse et la remédiation des alarmes générées par les solutions de sécurité (SIEM, EDR, Coffres forts, Bastion, AD, Zscaler, WAF), en s’appuyant sur des workflows Camunda. · Développer des playbooks et des scripts de remédiation pour réduire le temps moyen de résolution. · Amélioration de la supervision (alertes, corrélations, dashboards automatisés). Automatisation des tableaux de bord MCO/MCS : Concevoir, développer et automatiser la génération des tableaux de bord MCO/MCS pour une visibilité en temps réel sur l’état des solutions de sécurité. Automatisation du circuit de la demande via BBOT : Déployer un bbot (chatbot/assistant) pour le routage et le suivi des demandes de services et tickets d’incidents. Amélioration continue et communication transverse : · Identifier et proposer des axes d’amélioration continue des processus d’automatisation et de supervision, en exploitant les capacités d’AAP, de Camunda et du Bbot/IA pour optimiser les workflows. · Assurer une communication claire et efficace avec les parties prenantes. · Travailler en étroite collaboration avec les équipes pour aligner les pratiques et les outils. Compétences techniques requises : Scripting et automatisation : Expérience significative en développement et en automatisation, de préférence dans un domaine de cybersécurité. · Maîtrise avancée de Python, PowerShell, Ansible. · Maîtrise opérationnelle de AWX / Ansible Automation Platform (AAP). · Développement de bbots/assistants. Solutions de sécurité : Gestion des identités et authentification : MFA. Sécurisation de la connectivité : Netscaler et Zscaler. Protection : Mise en place et gestion de solutions Bastion et anti-DDoS. Gestion des accès privilégiés (PAM) : CyberArk et OneIdentity. Détection et réponse : Scan, SIEM, SOAR. Sécurité réseau et applicative : Compétences sur WAF, Proxy, Reverse Proxy, VPN, MFA. EDR : CrowdStrike. Gestion des identités et des accès (IAM/IAG) : SailPoint. Web Application Firewall (WAF) : Déploiement, configuration et exploitation. Supervision et observabilité : · Connaissance approfondie de modèles de supervision avec les outils Zabbix, Grafana. Bonnes pratiques DevOps/SecOps : Expérience des chaînes CI/CD (GitLab CI/CD, Jenkins, GitHub Actions…). Infrastructure et cloud : · Familiarité avec les environnements cloud (AWS, Azure, GCP) et les infras on-premise. Documentation & Support : Rédiger les procédures, guides d’exploitation et documentations d’automatisation.
Mission freelance
Software Engineer Informatica PowerCenter Talend (H/F)
EXMC
Publiée le
API
Informatica PowerCenter
Talend
1 an
Paris, France
Service chargé d’interagir avec l’équipe produit, les équipes projets, ainsi que les équipes sécurité et architecture. Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix. Services : Contribution au développement, à la livraison et à la maintenance des applications Talend ou Informatica ; Conception, tests et documentation des nouvelles solutions ; Garantie du respect des bonnes pratiques de développement et des exigences de sécurité. Livrables : Ateliers, documentation de conception et de design ; Développement des applications, tests unitaires et livraison ; Support aux phases de recette utilisateur (UAT).
Offre d'emploi
Business Analyst Planisware
Tritux France
Publiée le
Confluence
JIRA
Méthode Agile
3 mois
40k-45k €
400-460 €
Île-de-France, France
Description de la prestation 1.1. Objet de la prestation Le Domaine Project Management Office à la Direction de l’Informatique met à disposition des métiers de l’Ingénierie, un système d’information GPS (Global Planning System) qui permet ● Piloter la charge sur tout l’horizon des projets du plan gamme et des activités ● Piloter l’affectation de la charge affectée aux RTX ● Piloter l’adéquation charge-ressources en relation avec la capacité ressource et Prestation décidée ● Piloter et planifier les projets d’ingénierie de l’entreprise ● Planifier la fabrication des prototypes organes et véhicules ● Planifier les essais mécaniques et véhicules Le périmètre de la prestation est celui du Change -nouveaux projets & RUN- vie de série du logiciel GPS du domaine PMO de la Direction Informatique (DI-RE). 1.2. Livrables La mission consistera à assister le Product Leader “Projects & Activity Scheduling” dans la planification, la coordination et la gestion de projets informatiques depuis la phase de preframing jusqu’à la recette et le déploiement. Les missions : ● analyse des besoins des utilisateurs, rédaction des users story ● animation de l’approche Agile et de la communication avec l’équipe : PO, proxy POs et développeurs) ● écriture de documentation technico-fonctionelle ● écriture, réalisation et suivi des campagnes de tests en phase recette ● suivi des indicateurs d’avancement du projet ● remontée des risques et des problèmes 2. Le Prestataire désignera dans son offre le nom du Responsable technique dédié à la réalisation de la Prestation (se reporter au point 5.4)Savoir faire / domaines d’expertise du Prestataire 2.1. Savoir-faire du prestataire Connaissance des outils de gestion de projet en mode Agile: JIRA, Confluence Méthodologie Agile Méthodologie dans la rédaction de users story et plans de tests en tant de Agile Business Analyst 2.2. Savoir-faire nécessaire à la réalisation de la prestation / domaines d’expertise Projiciel Planisware E7 et migration d’une version antérieure vers la E7.
Mission freelance
Développeur Sénior Python (FastAPI, Pandas, NumPy)
Cherry Pick
Publiée le
FastAPI
Numpy
Python
12 mois
Paris, France
Le workflow des prix quotidiens de du client traite divers instruments financiers (actions, futures, obligations, IRS, etc.) à travers plusieurs étapes de traitement impliquant la validation des données, des contrôles de pare-feu, et des validations manuelles lorsque nécessaire. Ce workflow est devenu de plus en plus complexe en raison des extensions de produits, de la multiplicité des sources de données et de scénarios de pricing particuliers. Défis actuels : Limites de l’infrastructure legacy : Les systèmes backend et frontend existants pour les prix quotidiens et le pare-feu de données ont atteint leurs limites d’utilisation et ne peuvent pas gérer correctement la complexité opérationnelle actuelle. Cela entraîne une dégradation des performances et une expérience utilisateur peu fiable. Manque de transparence : Les équipes support et data engineering ont des difficultés à comprendre le cycle de vie d’un enregistrement de prix à travers le pipeline de traitement. Il n’est pas clair à quelle étape un prix est bloqué, pourquoi il est bloqué, et quelles actions peuvent résoudre le problème. Manques d’information : Les systèmes actuels n’affichent pas de manière fiable le statut de traitement, les raisons des erreurs ou les données produit contextuelles nécessaires pour des interventions manuelles et une prise de décision éclairée. Opérations inefficaces : Les opérations manuelles sur les enregistrements de prix manquent d’informations claires et correctes, ce qui entraîne des mauvaises interprétations dans certains cas, de mauvaises décisions, de la frustration utilisateur et de nombreuses investigations ad hoc. Problèmes de scalabilité : Les opérations en masse (chargement d’historique de prix, validations/rejets en masse) et la gestion des sources de prix sont lourdes et sujettes aux erreurs. Impact : Les équipes manquent de confiance dans la visibilité du système et l’intégrité des données ; les investigations prennent du temps ; les erreurs opérationnelles s’accumulent ; et le système devient un goulot d’étranglement à mesure que la couverture produit s’étend. 2. CRITÈRES CLÉS DE SUCCÈS La mission de conseil sera considérée comme réussie à l’atteinte des éléments suivants : API prête pour la production : Une API Python qui expose de manière fiable les données fonctionnelles et de traitement pour tous les enregistrements de prix à travers le workflow, avec une abstraction claire de la complexité Oracle sous-jacente. Visibilité complète : Les équipes support et data engineering peuvent comprendre instantanément le statut d’un prix, son étape de traitement, les raisons de blocage et les actions disponibles. Confiance des opérateurs : Les opérations manuelles sont effectuées avec des informations correctes et fiables ; le taux d’erreur sur les interventions manuelles diminue de manière mesurable. Opérations en masse efficaces : Les chargements d’historique de prix, validations et rejets en masse sont simplifiés et faciles à utiliser. UX intuitive : Interfaces frontend orientées utilisateur adaptées aux équipes support et data engineers ; visualisation claire des événements de prix et de l’historique de traitement. Réduction du temps d’investigation : Le temps de résolution des problèmes liés aux prix diminue d’au moins 50 % ; le troubleshooting ad hoc est réduit. Profil recherché : Développeur senior , avec une forte expertise en Python et en conception d’API robustes, prêtes pour la production. Expertise FastAPI - Pandas - NumPy Solide expérience en architecture technique , avec capacité à concevoir des systèmes scalables et à abstraire des environnements complexes (notamment Oracle). Une connaissance du domaine de la finance de marché (instruments financiers, pricing, flux de données) est fortement appréciée afin de bien comprendre les enjeux métier et les spécificités des données traitées. Bonne maîtrise des flux de données et des pipelines de traitement , idéalement dans un contexte de données financières ou de pricing. Compétences avancées en debugging, performance et optimisation de systèmes existants. Sensibilité produit, avec capacité à contribuer à des interfaces utiles pour les équipes support et data . Profil autonome et orienté résolution de problèmes , capable de comprendre rapidement des environnements complexes et de proposer des solutions pragmatiques.
Mission freelance
Lead DevOps Kafka Senior – Assistance Technique (IBM Cloud / Kubernetes / Kafka as Code)
Deodis
Publiée le
CI/CD
1 an
600-650 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe technique en charge de plateformes de streaming de données, la mission consiste à intervenir en tant que Lead DevOps senior au sein d’une squad dédiée à plusieurs offres Kafka opérées à la fois on-premise et dans le cloud. Le consultant participera à l’administration avancée des clusters Kafka, aux activités de build et de run, ainsi qu’au support de niveau expert en environnement de production. Il contribuera également au maintien en conditions opérationnelles d’une offre en fin de vie, tout en accompagnant le développement d’une offre stratégique basée sur une approche “Kafka as Code”, incluant l’automatisation du provisioning, le développement d’outils et de pipelines (Python, Terraform, Airflow), et l’intégration CI/CD et GitOps. L’environnement technique repose notamment sur Linux, Docker, Kubernetes et des outils d’automatisation tels qu’Ansible et GitLab CI. Le poste requiert une forte autonomie, une expertise technique solide sur Kafka, ainsi qu’une capacité à intervenir en contexte critique, incluant une participation aux astreintes et à l’amélioration continue des processus d’exploitation et de supervision.
Mission freelance
Tech Lead .NET technico-fonctionnel
INSYCO
Publiée le
.NET
Agile Scrum
Azure DevOps
3 ans
550-650 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Tech Lead .NET technico-fonctionnel . Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/TECH/5085 en objet du message Contexte de la mission Le Tech Lead interviendra au sein de la DSI, dans l'équipe en charge de l'outil stratégique utilisé directement par la Direction Financière. Ce produit est au cœur des processus comptables, de trésorerie et de contrôle de gestion de l'organisation. La mission s'inscrit dans un environnement structuré selon le framework SAFe, avec des équipes pluridisciplinaires (Product Owner, développeurs, architectes, QA, experts métier) collaborant étroitement pour garantir la qualité, la fiabilité et la valeur métier des solutions livrées. Responsabilités Vision technique partagée : co-construire avec l'équipe une vision technique alignée avec la stratégie DSI Excellence technique & pratiques de qualité : fédérer autour de standards de développement, animer les réflexions sur la qualité Pilotage de la dette technique et de l'obsolescence : faciliter l'identification, la priorisation et le suivi de la dette avec le PO Décisions techniques & support : soutenir l'équipe dans les choix techniques et la résolution de problématiques complexes Montée en compétence & partage : encourager le pair programming, les tech talks, et le partage de connaissances Coordination transverse : assurer la cohérence technique entre les équipes, produits et fonctions transverses Compréhension métier & valeur : traduire les enjeux métier en choix techniques pertinents Pédagogie & vulgarisation : aider à formuler et expliquer les sujets techniques aux parties prenantes Mentorat & dynamique d'équipe : favoriser l'autonomie, la collaboration et le leadership partagé Posture agile : incarner les valeurs agiles et encourager la responsabilité collective
Mission freelance
Release Train Engineer H/F
AGH CONSULTING
Publiée le
Méthode Agile
6 mois
300-480 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Release Train Engineer (RTE) chargé de coordonner et d'harmoniser le travail de plusieurs équipes impliquées dans le développement d'un même produit ou programme. Le RTE agit comme facilitateur et coordinateur entre les différentes équipes, afin d'assurer une collaboration fluide, une bonne communication et une livraison régulière de valeur. Il accompagne les équipes dans l'application des principes de l'agilité et contribue à l'amélioration continue de l'organisation. A ce titre, vos principales missions seront les suivantes : 1. Organisation et facilitation des événements de coordination Le Release Train Engineer : -Prépare et anime les réunions et événements majeurs impliquant l'ensemble des équipes, -Veille à la bonne compréhension des priorités et du planning global, -S'assure que les objectifs sont clairement définis et partagés par tous, -Garantit le bon fonctionnement de l'Agile Release Train et la livraison régulière de valeur, -Veille à la bonne application du cadre Agile et du framework de pilotage du programme. 2. Coordination des équipes Le RTE assure la synchronisation entre les différentes équipes en : -Identifiant les dépendances et les points de blocage entre équipes -Facilitant la résolution des problèmes organisationnels -Favorisant la collaboration entre les différents acteurs du programme -Accompagnant les équipes, les Product Owners et les managers dans l'application des pratiques Agile. 3. Suivi de l'avancement et pilotage Il assure le suivi global de l'activité : -Suivi de l'avancement des équipes, -Identification et anticipation des risques, -Communication régulière de l'état d'avancement auprès des parties prenantes. 4. Amélioration continue Le Release Train Engineer contribue à améliorer le fonctionnement collectif en : -Favorisant une meilleure collaboration entre les équipes, -Proposant des axes d'amélioration organisationnelle, -Facilitant les échanges avec les parties prenantes (métiers, architectes, autres équipes), -Encourageant une culture de travail efficace et collaborative.
Mission freelance
Product Owner SAFe (H/F)
Freelance.com
Publiée le
Apache Kafka
API
Copilot
3 ans
400-580 €
Maisons-Alfort, Île-de-France
Nous recherchons un Product Owner (PO) expérimenté pour rejoindre une équipe agile travaillant sur des applications de financement à l’international. La mission s’inscrit dans un contexte SAFe et comporte des responsabilités à la fois fonctionnelles et techniques. Durée de la mission : 3 ans Démarrage : Avril Localisation : Maison Alfort – 2 jours en présentiel (mardi et vendredi) et 3 jours en télétravail (lundi, mercredi, jeudi) Expérience requise : +7 ans Missions principales : Concevoir, rédiger et maintenir les User Stories (US) et Tests d’acceptation. Suivre la réalisation avec les développeurs et effectuer les tests au fur et à mesure. Accompagner les utilisateurs finaux (conseil, formation, recensement des améliorations fonctionnelles, 1er niveau d’incidents). Assurer le maintien en condition opérationnelle des applications, avec suivi des incidents et respect des SLA. Participer et contribuer aux jalons SAFe : PI Planning, Iteration Planning, Review, PO Sync. Coordonner avec les équipes transverses pour les besoins fonctionnels et techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5962 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois