L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 968 résultats.
Mission freelance
Développeur full stack Java/Vue (H/F)
Publiée le
Apache Kafka
Entreprise Java Bean (EJB)
Vue.js
2 ans
100-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack Java/Vue (H/F) à Lille, France. Les missions attendues par le Développeur full stack Java/Vue (H/F) : produit éditeur couvrant le périmètre des appels d'offres fournisseurs. Le développeur aura en charge de réaliser les interfaces d'intégration avec le SI. Il intégrera une équipe avec d'autres développeurs, des PO, une UX et un tech lead. Dév sénior stack java/vue/kafka
Mission freelance
Testeur Expérimenté
Publiée le
Apache Kafka
API REST
JIRA
1 an
350-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : Rédaction et exécution des cas de test Analyse, animation et suivi des anomalies Automatisation des campagnes de test (Sanity, TNR, Déploiement CI ...) Tests d'intégration (API diverses, Kafka, Transfile ...) Compétences attendues : Certification ISTQB Compétences sur Xray / Jira Playwright Pratique de l'Agilité au quotidien Autres outils : SonarQube, Git Savoir-être : communication, forte adaptibilité, prise de recul Mission longue durée basée sur la métropole lilloise avec télétravail partiel
Mission freelance
Développeur EBX Senior
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Mission freelance
Développeur Java/Kafka/Kubernetes
Publiée le
Apache Kafka
Java
Kubernetes
1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un Développeur Java/Kafka/Kubernetes. Maitrise des compétences techniques suivantes : - Kafka (kafka streams) - Java 21 - Kubernetes - API REST Autres Compétences - Conception technique - Conception archi - Volontaire - Bon relationnel - Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l’assistance à l’utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements Au sein de cette Tribu, vous intégrerez la squad Proactivité Commerciale composée d’un PO/SM/Expert solution et 6 membres de la dev team (Business analysts/développeurs) et qui a pour missions de : - Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client - Concevoir et développer des solutions pour les équipes Marketing et les Conseillers des Caisses Régionales - Assurer l’assistance fonctionnelle auprès des utilisateurs
Mission freelance
Développeur Kafka
Publiée le
Apache Kafka
API REST
1 an
400-680 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Visian recherche pour un de nos clients bancaire un profil Développeur Kafka Sénior afin de renforcer ses équipes IT. Les missions confiées porteront à la fois sur l’ensemble des phases projets ainsi que sur le suivi et la résolution d’incidents, du périmètre applicatif en responsabilité. Participation aux cadrages des projets : étude d’impacts, conception de solutions, chiffrage Rédaction des spécifications fonctionnelles & détaillées, en anglais Mise en place de tests de non-régression automatisés Supervision des travaux de développements externalisés, en anglais Réalisation et exécution de phases de tests IT Rédaction des documentations liées aux évolutions réalisées dans un outil documentaire partagé Préparation et suivi des mises en production des applications du périmètre Suivi de la phase VSR Forte communication avec toutes les parties prenantes métier & IT des projets (conformité, marketing, architectes, …) Suivi, analyse et résolution d’incidents
Mission freelance
Tech Lead Kafka/Angular/fa
Publiée le
Angular
Apache Kafka
12 mois
Paris, France
Télétravail partiel
Tech Lead Kafka/Angular/fa Kafka (kafka streams) Java 21 Kubernetes API RESTclient Banque basé à Paris Gare de Lyon, un Tech Lead - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Mission freelance
Product Owner sénior DAM et Media Portal AEM H/F
Publiée le
API
3 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Nous cherchons des experts DAM et Data - capables de construire et piloter les roadmaps de ce produit - autour des enjeux d'intégration de ces outils dans un éco-système de grand groupe et de data quality d'assets (fichiers, médias) en vue de pouvoir les exposer à de multiples consommateurs. DAM - Confirmé - Impératif Data - Confirmé - Impératif AI - Confirmé - Serait un plus AEM - Confirmé - Serait un plus Description détaillée Nous recherchons 1 Product Owner Senior pour piloter l’évolution stratégique des produits DAM et Media Portal , en les orientant vers une gestion avancée et intelligente des données. Au-delà de la gestion centralisée des assets digitaux, la mission consiste à structurer, classifier et exposer efficacement la donnée via des API performantes, à mettre en place une organisation sémantique robuste, et à tirer parti de l’intelligence artificielle pour enrichir les métadonnées clés. Ce rôle est au coeur de la Data Governance et contribue directement à l’efficacité des équipes métiers, au rayonnement international des assets de marque et à l’accélération des workflows omnicanaux. Ce poste est une opportunité de piloter un produit stratégique, en lien avec l’équipe Business Content Strategy, dans un environnement riche et stimulant, avec un fort impact sur les résultats globaux de l’entreprise. Le Product Owner devra driver le delivery et la discovery continus sur son périmètre en se basant sur les objectifs de l’équipe, la vision de la Tribe et les besoins et retours des consommateurs des Features délivrées en travaillant main dans la main avec les Tech Lead du périmètre. L’équipe est composée de 1 Program Manager AEM, 2 PO DAM/MP, 1 Tech Lead, 2 Dev + 1 Solution Architect. Responsabilités principales : - Vision & Stratégie Produit - Structuration et Gouvernance de la Data - Exposition & Intégration via API - Innovation & Enrichissement via IA - Pilotage & Méthodologies Agiles
Mission freelance
Lead Dev Python - FastAPI
Publiée le
Apache Kafka
FastAPI
Python
12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Offre d'emploi
Product owner
Publiée le
Data analysis
1 an
40k-51k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Qualité des données & Gouvernance Identifier et évaluer les impacts des données manquantes, incohérentes ou de mauvaise qualité sur les opérations Intermodal, le reporting et la prise de décision. Définir, pour les données clés, des pratiques de gestion de la qualité des données , incluant : des KPI et seuils de qualité, des règles et contrôles de monitoring, des processus de traitement des anomalies et de correction, des rôles et responsabilités (responsables, contributeurs, escalades). Prioriser et formaliser les améliorations de la qualité des données sous forme de user stories dans le backlog (nouveaux contrôles, logiques d’enrichissement, workflows de correction). Veiller au respect des politiques et standards de gouvernance des données et contribuer à la clarification des rôles (data owners, data stewards). Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data : nouvelles sources, tables, métriques et vues attendues par le métier. Animer les réunions de validation avec les équipes IT et métier afin de confirmer l’alignement des livrables avec les exigences et leur bonne documentation (définitions, lignage, règles de qualité). Revoir et approuver les structures de données et transformations implémentées sur la base de critères d’acceptation clairement définis. Garantir la cohérence et la réutilisation entre les initiatives data , en évitant la duplication des jeux de données et des indicateurs. Préparation des déploiements & support (nouveau TMS et autres systèmes) Pour le projet de nouveau TMS, piloter la phase de préparation et de nettoyage des données avant chaque déploiement, avec l’appui du Référent Master Data : identifier et planifier les chargements, migrations et nettoyages de données nécessaires, coordonner les travaux avec les Product Owners, experts régionaux et équipes IT, valider la disponibilité, la complétude et l’adéquation des données pour le déploiement. Assurer le suivi des incidents liés aux données lors des phases de bascule et de démarrage, en garantissant une résolution rapide et la capitalisation pour les futurs déploiements. Mettre à jour la documentation (catalogue, flux de données, règles de qualité) afin de refléter l’ouverture de nouveaux pays, régions ou périmètres, ainsi que les évolutions des TMS et systèmes sources. Qualifications & expérience requises Diplôme de niveau Licence ou Master en Data / Informatique, Ingénierie, Supply Chain, Business ou domaine équivalent, ou expérience professionnelle équivalente. Plusieurs années d’expérience dans un ou plusieurs des rôles suivants : Data Product Owner / Product Manager, Data Analyst / Business Data Analyst, Projets BI / Data Warehouse dans un contexte opérationnel ou logistique. Expérience confirmée sur des plateformes data, datamarts ou data warehouses (recueil des besoins, modélisation, validation, déploiement). La connaissance des processus transport / logistique / intermodal constitue un atout majeur.
Offre d'emploi
Product Owner
Publiée le
BI
Data Warehouse
12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Mission freelance
Business Analyst Digital
Publiée le
Apache Kafka
Cypress
Postman
12 mois
200-690 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre de la refonte d’un moteur applicatif cœur pour des plateformes de diffusion de contenus digitaux à dimension internationale, nous recherchons un Business Analyst orienté Run , avec une forte dominante tests, support utilisateurs et qualité fonctionnelle . Répartition des activités 60 % Tests fonctionnels & Tests de Non-Régression (TNR) 30 % Support utilisateurs & support applicatif niveau 3 10 % Rédaction de spécifications / User Stories Missions Préparer, exécuter et maintenir les tests fonctionnels et TNR Définir et faire évoluer le plan de tests en lien avec les équipes techniques Tester les API et services via Postman et SoapUI Automatiser les test à l'aide de Cypress Analyser les logs applicatifs et les données (requêtes SQL ) Assurer le support utilisateurs : prise en charge des incidents et demandes fonctionnelles échanges directs avec les utilisateurs métiers accompagnement post mise en production Intervenir en support applicatif niveau 3 en environnement de production Collaborer avec l’ingénieur en charge de l’ automatisation des tests Préparer et réaliser les tests avant chaque mise en production Rédiger ponctuellement les User Stories et spécifications fonctionnelles Profil recherché Bac+5 Minimum 5 ans d’expérience en Business Analysis, validation fonctionnelle ou support applicatif Profil technico-fonctionnel , orienté production et utilisateurs À l’aise dans des contextes Run et d’applications critiques Environnement & outils Applications Web Jira XRay / Excel Postman, SoapUI / Cypress SQL / MySQL Web Services REST & SOAP Notions de Kafka (flux événementiels) Méthodes Agile Qualités attendues Sens du service et de la relation utilisateurs Rigueur, autonomie Esprit d’analyse et réactivité Bon niveau d’anglais IL VAUT MIEUX HABITER PROCHE OU ETRE VEHICULE / POSTE SUR SITE A 80%
Mission freelance
Tech lead .NET
Publiée le
.NET
Apache Kafka
API
6 mois
400-600 €
Nantes, Pays de la Loire
Télétravail partiel
En tant que Tech Lead .NET, vous interviendrez sur des solutions de confiance numérique, avec un focus sur la signature électronique et la sécurité des applications critiques. Votre rôle sera de combiner expertise technique et leadership pour accompagner une équipe en pleine montée en charge. Vous participerez activement au développement (80 % du temps) tout en assurant un encadrement technique (10 à 20 %). Vous serez impliqué dans la mise en place de pipelines CI/CD, l’optimisation des socles mutualisés et l’intégration d’environnements modernes (conteneurs, API, Kafka). Ce poste requiert une vision globale des architectures et une forte sensibilité aux problématiques de sécurité.
Mission freelance
Développeur full stack JS (H/F)
Publiée le
Apache Kafka
Mongodb
Node.js
2 ans
100-400 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack JS (H/F) à Lille, France. Les missions attendues par le Développeur full stack JS (H/F) : ++: Nodejs / Nest.js ++: MongoDB ++: Nx monorepo ou autre monorepo "moderne" comme turborepo ++: Kafka +: CI/CD ou GitHub Actions +: K8S +: Datadog +: Software Craftsmanship Vous serez responsable (en pair ou mob avec le reste de l'équipe) de: - évolutions (Node JS / Nest.js / MongoDB / Kafka) sur la partie API / BFF / Front - mise en place et/ou renforcement de best practices autour du testing, de l'alerting, du monitoring pour assurer la qualité, la stabilité et la scalabilité du produit
Mission freelance
Product Owner API
Publiée le
API REST
1 an
500-600 €
Île-de-France, France
Télétravail partiel
Au sein d’une organisation produit fonctionnant en Feature Teams, vous serez responsable de la couche business des API Basket & Order , élément central permettant d’orchestrer et de standardiser le processus de réservation au sein des différents canaux digitaux. Rattaché au Product Director et en lien direct avec un Senior Product Owner , vous définirez et piloterez la roadmap produit , structurerez et prioriserez le backlog , rédigerez les spécifications d’APIs REST et animerez la feature team selon les pratiques Agile/Scrum. Vous assurerez également la coordination transverse avec les consommateurs API, les équipes back-end et les autres Feature Teams afin de garantir la cohérence, la performance et la fiabilité de l’orchestration globale.
Offre d'emploi
CHEF(FE) DE PROJET TECHNIQUE / SYSTEM OWNER - Expert (>10 ans)
Publiée le
Apache Kafka
Boomi
GoAnywhere MFT
1 an
Île-de-France, France
Télétravail partiel
Au sein de la DSI-PDV, rattaché(e) au pôle Encaissement et Promotion du domaine Encaissement et Monétique , le/la Chef(fe) de Projet Intégration et Flux intervient dans le cadre du programme NEMO (Nouvel Encaissement Mousquetaires Omnicanal). Il/elle pilote le chantier d’intégration de la nouvelle solution d’encaissement au sein du SI du Groupement, en s’appuyant sur des interfaces temps réel et différées conformes aux patterns d’échange définis. Responsable de la conception, de la validation et de la mise en œuvre des flux (incluant la supervision), il/elle coordonne l’ensemble des acteurs techniques et métiers impliqués, assure le suivi budgétaire, le respect des délais et du périmètre, ainsi que le reporting auprès des instances de gouvernance du programme. À ce titre, il/elle contribue à la rédaction et à la validation des contrats d’interfaces, des dossiers de conception et des cahiers des charges, prépare et sécurise les mises en production, et garantit l’application des standards d’architecture, de qualité, de sécurité et de gouvernance du Groupement, dans un environnement technique exigeant reposant notamment sur GoAnywhere MFT, Boomi, Kafka et Solace.
Mission freelance
Product Owner Senior API
Publiée le
Agile Scrum
API
API Platform
12 mois
400-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Contexte Au sein de la Tribe Distribution API et sous la responsabilité du Product Director, le Product Owner Senior pilotera la feature team responsable de la couche business des services API Basket & Order . Cette brique est stratégique : elle centralise et standardise le processus de réservation de chambres et de produits annexes selon le contexte client et les canaux de distribution (, App, sites marques…). Missions principales Pilotage produit : Définir et maintenir la roadmap de la couche business Basket & Order en tant qu’orchestrateur central des réservations. Management agile : Encadrer la feature team en méthodologie Scrum et garantir la livraison des objectifs. Spécifications techniques : Rédiger des spécifications d’APIs REST et des user stories détaillées. Coordination écosystème : Assurer l’alignement avec l’ensemble des consommateurs, systèmes back-end et autres feature teams. Backlog management : Prioriser les développements selon la stratégie définie par le Product Director et le VP Product. Profil recherché Expertise technique (indispensable) Maîtrise avancée des APIs REST et des patterns d’orchestration. Capacité à rédiger des spécifications techniques précises et user stories exploitables. Forte appétence technique , idéalement avec une expérience développement. Expérience management et communication Leadership agile confirmé (expérience Scrum). Excellentes capacités de communication avec des interlocuteurs techniques et métier. Capacité à faciliter ateliers et aligner plusieurs équipes . Adaptabilité rapide aux méthodes de travail de la Tribe. Atouts (Nice to have) Expérience secteur retail ou gestion de commandes/réservations. Compréhension des enjeux d’ orchestration de services et de gestion contextuelle. Environnement Feature team dédiée au sein de la Tribe Distribution API. Projet stratégique d’orchestration des réservations de chambres et produits annexes. Collaboration avec multiples canaux de distribution et systèmes back-end. Méthodologie Agile/Scrum, culture DevOps. Compétences linguistiques Anglais professionnel requis (impératif).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
968 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois