L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 113 résultats.
Offre d'emploi
Data Analyst
Publiée le
MySQL
SAS
6 mois
29k-34k €
250-280 €
Le Mans, Pays de la Loire
Objectifs de la mission Dans le cadre d’activités de pilotage et d’analyse, nous recherchons un Chargé d’Études Statistiques maîtrisant SAS afin de réaliser des travaux d’extraction, de contrôle qualité, d’analyse et de restitution auprès des équipes métier. Livrables attendus Jeux de données fiables issus des extractions SAS Rapports d’analyses Contrôles de cohérence et de qualité des données Tableaux de bord de pilotage Notes de synthèse et documents de restitution Recommandations sur l’amélioration des processus Missions Réaliser des extractions de données via SAS Manipuler, structurer et nettoyer les données Effectuer les contrôles qualité sur les données produites Analyser les résultats et produire les indicateurs de pilotage Rédiger et présenter les analyses aux équipes métier Contribuer à la fiabilisation des référentiels data Échanger avec les équipes métier pour comprendre les besoins et restituer les résultats Profil recherché Bac +3 à Bac +5 en statistiques, mathématiques appliquées, data analysis ou domaine équivalent Expérience confirmée en tant que Chargé d’Études Statistiques, Data Analyst ou équivalent Maîtrise de SAS (SAS Base, Macro) Aisance dans la manipulation de données volumineuses Capacité d’analyse et de synthèse Bon relationnel et capacité à interagir avec les équipes métier Rigueur, autonomie, sens du contrôle et de la qualité des données Compétences techniques SAS Base / SAS Enterprise Guide SQL apprécié Connaissances en qualité de données et data management appréciées Connaissance du secteur assurance est un plus Soft skills Rigueur Autonomie Communication claire Travail en équipe Capacité d’adaptation
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Offre d'emploi
DBA / DevOps
Publiée le
Ansible
AWS Cloud
ELK
12 mois
Île-de-France, France
Télétravail partiel
Descriptif de mission Dans le cadre d’un projet de modernisation et d’optimisation des systèmes de données , nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps et Cloud . Le poste dépasse les missions classiques d’administration : il s’agit d’apporter une expertise technique sur les bases de données , d’ accompagner une migration vers un environnement AWS , d’ optimiser les performances et d’ automatiser la gestion des environnements . Missions principales Administrer et optimiser les bases de données OnPrem (PostgreSQL, Vertica, MariaDB, Oracle). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances SQL et les architectures de stockage . Garantir la haute disponibilité , le PRA et la continuité de service . Automatiser la gestion des environnements via Infrastructure as Code (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD . Contribuer au monitoring et à l’ observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data , BI et IT pour garantir des données fiables et performantes. Assurer une veille technologique sur les sujets Cloud, Data Lake et Big Data . Gérer l’évolution des schémas de bases via des outils de migration tels que Liquibase
Offre d'emploi
Administrateur base de données
Publiée le
Elasticsearch
Google Cloud Platform (GCP)
Greenplum
1 an
40k-45k €
290-390 €
Tours, Centre-Val de Loire
Contexte Dans le cadre du renforcement de son pôle Production & Données, notre client recherche un Ingénieur de Production Data / Administrateur Bases de Données Confirmé . Le poste est basé à Tours , au sein d’une équipe en charge de l’administration et du maintien en conditions opérationnelles des plateformes data on-premise et cloud. Missions principales L’ingénieur de Production Data assure la gestion, la disponibilité et les performances des environnements data de l’entreprise. À ce titre, ses responsabilités incluent : Administration & MCO Administration, optimisation et supervision des bases de données Oracle , Postgres et Couchbase . Gestion des plateformes data (ex. Greenplum , Elasticsearch , Couchbase, etc.) en environnement on-premise et GCP . Mise en place, configuration et évolution des environnements de production. Suivi de la performance : mémoire, disques, index, requêtes. Exploitation & Support Gestion des incidents et participation à la résolution des problèmes. Stratégies de sauvegarde, restauration et supervision. Gestion des accès et création des comptes utilisateurs. Participation aux astreintes. Ingénierie & Documentation Mise en œuvre et optimisation de scripts d’exploitation. Réalisation de schémas techniques et de documentation d’exploitation. Contribution à la veille technologique sur les sujets data & SGBD. Livrables attendus Scripts d’exploitation et d’automatisation Schémas techniques Documentation technique & procédures Compétences techniques requises (impératives) Oracle – Confirmé Postgres – Confirmé GCP – Confirmé Couchbase – Confirmé Compétences en plateformes data : Greenplum, ElasticSearch, etc. Maîtrise des environnements de production (MCO, supervision, optimisation) Compétences transverses Rigueur, autonomie, sens de l’analyse Capacité à gérer plusieurs environnements critiques Esprit d’équipe et communication claire Connaissances linguistiques Anglais professionnel – impératif Profil recherché DBA Confirmé / Ingénieur de Production Data Expérience significative en administration de bases de données dans des environnements exigeants Bonne compréhension des architectures data et cloud Aisance avec les processus ITIL (incidents, problèmes, changements) Localisation 📍 Tours (37) Possibilité de déplacements ponctuels selon les besoins.
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Offre d'emploi
Fullstack developer Python / VueJS H/F
Publiée le
Docker
PostgreSQL
Python
55k-65k €
Paris, France
Télétravail partiel
Contexte Cette entreprise innovante évolue dans le secteur de l’évaluation environnementale appliquée aux équipements électriques, électroniques et de génie climatique. Elle développe une solution technologique permettant d’automatiser l’Analyse de Cycle de Vie (ACV) afin de la rendre simple, accessible et scalable à l’échelle de catalogues complets. L’objectif : aider les industriels à mieux comprendre et réduire l’impact environnemental de leurs produits, tout en assurant la conformité réglementaire (génération automatisée de documents d’impact type PEP). L’équipe La structure compte actuellement 14 collaborateurs, répartis en trois pôles : Équipe ACV : experts en écoconception, ingénierie et gestion opérationnelle. Équipe Tech : un CTO, une CPO, un développeur junior, un DevOps, un ingénieur QA. Équipe Sales : business developers et commerciaux. L’entreprise poursuit sa croissance et souhaite renforcer son équipe technique.
Mission freelance
Administrateur Bases de Données Oracle / SQL Server sur Paris 13
Publiée le
Microsoft SQL Server
Oracle Database
PostgreSQL
24 mois
Paris, France
Télétravail partiel
La mission consiste à administrer les environnements de bases de données Oracle (19c, 23ai) et SQL Server (2019, 2022) sur les environnements de développement, recette, qualification et production. Le/La titulaire du poste aura pour principales responsabilités : Maintien en condition opérationnelle des serveurs de bases de données Administration de la réplication en configuration multi-site (PSI et anti-corruption) Support de niveau 2 sur les incidents liés aux moteurs SGBD et au code SQL Optimisation des moteurs SGBD et du code SQL Analyse technique des changements et identification des maintenances préventives nécessaires Pilotage des maintena nces et traitement des évolutions Gestion des incidents de niveau 3 et des problèmes de niveau 2 Optimisation de l'utilisation des ressources via l'analyse des rapports de performance et application des évolutions techniques Maintien à jour de la documentation opérationnelle (schémas d'architecture, modes opératoires.) Mise à jour des référentiels de configuration Participation en tant qu'expert aux projets d'infrastructure Réalisation des exercices de continuité et de disponibilité La mission comprend une participation au dispositif d'astreintes et interventions hors heures ouvrées.
Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Publiée le
ETL (Extract-transform-load)
6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Mission freelance
Run Manager
Publiée le
Confluence
JIRA
Oracle Database
1 an
300-350 €
Cestas, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Run Manager afin d'assurer le pilotage du Run. A ce titre, vos principales missions seront les suivantes : Support Utilisateur N1 et pilotage du Run de notre Client Être le point d’entrée transverse pour les demandes issues : - Du client (support aux opérations & backoffice technique), -Des utilisateurs entrepôt (blocages, anomalies opérationnelles), du backoffice IT (flux d’échanges, erreurs techniques), -Des interlocuteurs projet (configurations, évolutions). -Qualifier, analyser, traiter selon procédure ou escalader les incidents et demandes. Suivre les anomalies récurrentes et proposer des plans correctifs. Amélioration continue et fiabilisation des flux -Mettre en place une méthodologie de suivi et de priorisation (backlog Run, quick wins, reporting). -Identifier les causes racines des incidents pour réduire durablement la charge Run -Fiabiliser les flux critiques (commandes, préparations, transports, intégrations IT) et participer au développement d'une observabilité proactive. Coordination transverse et relation client -Assurer la communication régulière avec le client, en garantissant visibilité et proactivité sur les incidents. -Coordonner les équipes internes (entrepôts, IT, projets) et externes pour fluidifier la résolution des problèmes. -Participer aux rituels de suivi (daily/hebdo avec équipes CNOVA et du client, comités de pilotage réguliers). Documentation et reporting -Documenter les procédures et alimenter la base de connaissances (Confluence, guides de résolution). -Accompagner la montée en autonomie des équipes sur le suivi des flux de notre client. -Contribuer à l’amélioration de la relation client via des pratiques structurées de support et de reporting.
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
Expert Commvault / Sauvegarde
Publiée le
Oracle
PostgreSQL
Sauvegarde
1 an
500-550 €
Paris, France
Télétravail partiel
Missions principales Piloter les projets de sauvegarde : suivi, planification, animation des réunions et comités Contribuer à l’étude, au déploiement et à l’évolution des solutions de sauvegarde et de restauration Définir, mettre à jour et documenter les procédures, stratégies et bonnes pratiques de sauvegarde/restauration Administrer Commvault, assurer le suivi quotidien des sauvegardes et gérer les incidents associés Organiser et réaliser des tests de reprise de données Participer à l’optimisation et à l’amélioration continue des processus existants Environnement technique : Bases de données : Oracle (principalement), PostgreSQL, SQL Server, MySQL Systèmes : Linux (Red Hat), HP-UX, Windows Server Virtualisation : VMware
Mission freelance
Administrateur Bases de Données PostgreSQL Expert – Azure / AWS
Publiée le
AWS Cloud
Azure
12 mois
Paris, France
Télétravail partiel
Contexte Nous recherchons pour notre client, un grand groupe international du secteur de l’énergie, un DBA PostgreSQL Expert afin de renforcer l’équipe DBA du département Infrastructure, dans un contexte cloud first basé sur Azure et AWS. La mission s’inscrit dans un environnement à haute criticité, lié à des activités de trading et de gestion de portefeuille énergie, avec un parc d’environ 3000 serveurs répartis entre Azure, AWS et deux datacenters on-premise. Le consultant interviendra au sein de l’équipe CORE IS INFRA Database Administrators, en collaboration directe avec les équipes de développement et les équipes infrastructure (systèmes, réseau, production excellence et gouvernance). Missions principales En tant que référent PostgreSQL, le consultant assurera l’administration N3 des environnements PostgreSQL, aussi bien on-premise que cloud. Il participera au design des solutions, à leur mise en exploitation et à la gestion des serveurs de données. Son rôle couvrira notamment l’automatisation des opérations, la gestion des droits, la sécurité, ainsi que l’optimisation des traitements et des requêtes. Il devra garantir l’intégrité, la disponibilité et la résilience des bases à travers les procédures de sauvegarde, de restauration, de journalisation ou de PRA. La mission inclut également la définition et la mise en œuvre de standards d’exploitation, l’automatisation des déploiements avec Ansible, Git et du scripting (Bash, Python ou PowerShell), ainsi que l’intégration de PostgreSQL dans l’écosystème Azure, notamment via Bicep, Log Analytics et Azure Monitor. Le consultant contribuera aussi à la création et à l’amélioration de dashboards techniques utilisant des outils tels que Grafana, Prometheus ou Zabbix. L’expert travaillera dans un environnement hybride combinant Microsoft OnPrem, Azure et AWS. Il prendra en charge les demandes techniques des équipes applications et développement, s’intégrera aux processus agiles des Delivery Teams, et accompagnera les équipes projets sur les choix d’architecture et de composants d’infrastructure. La mission comporte également la rédaction de la documentation technique (HLD, LLD, spécifications, procédures d’exploitation), la participation à la démarche DevOps DBA (CI/CD, bonnes pratiques, outillage) et l’intégration progressive dans le dispositif d’astreintes. Des déplacements réguliers à Bruxelles sont prévus afin de collaborer avec les équipes locales
Offre d'emploi
Développeur Fullstack Data Java / Python / SQL
Publiée le
Automatisation
CI/CD
Cloudera
3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Offre d'emploi
Consultant Fonctionnel BI Agile / Product Owner
Publiée le
IBM DataStage
JIRA
PostgreSQL
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
✨ CITECH recrute ! Vous souhaitez rejoindre un environnement stimulant et prendre part à des projets data stratégiques ? Nous recherchons un(e) Consultant Fonctionnel BI / Product Owner (H/F) pour renforcer une équipe décisionnelle et intervenir sur des sujets à forte valeur ajoutée. 🙌 Vos missions principales 🧩 Conception & Spécifications Participer aux études de cadrage et analyser les besoins métiers. Rédiger les conceptions générales et détaillées (SFG / SFD). Modéliser les données sous Hopex / MEGA . Garantir la cohérence des solutions proposées. 🚀 Pilotage Agile & Coordination Intervenir comme Product Owner délégué auprès des équipes SCRUM. Prioriser, rédiger et chiffrer les User Stories . Valider les développements livrés. Structurer le découpage des activités dans Jira . Assurer la coordination avec la MOA, les architectes et les équipes techniques. 🔧 Suivi & Maintenance Suivre les phases de réalisation et accompagner l’équipe durant les sprints. Participer au RUN : prise en charge des anomalies et évolutions.
Offre d'emploi
Proxy Product Owner Senior - Sophia Antipolis
Publiée le
MySQL
Spring
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte & Enjeux Dans le cadre d’un projet au sein d’une équipe multisite , nous recherchons un Proxy Product Owner Senior capable d’assurer la continuité opérationnelle et la coordination fonctionnelle entre les équipes métiers, techniques et produit. 🛠️ Missions principales Collaborer étroitement avec le Product Owner et le Product Manager pour construire et affiner la vision produit. Rédiger des User Stories claires et détaillées. Gérer et maintenir le backlog de l’équipe : priorisation, organisation, cohérence globale et roadmap. Garantir la bonne compréhension de chaque User Story tout au long de son cycle de vie : présentation pour estimation, support aux développeurs, validation fonctionnelle, suivi de la stratégie d’automatisation des tests, support aux analyses d’incidents en production. Assurer une synchronisation fluide avec les autres équipes du programme (feature teams, exploitation technique) via : PO Sync, ateliers de conception, comités d’architecture, PI Planning. 📄 Livrables attendus User Stories Dossier de spécification (Confluence) 🧩 Compétences requises Techniques : SQL : Confirmé – indispensable Spring : Junior – un plus apprécié Linguistiques : Français : courant – impératif Anglais : professionnel – souhaité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3113 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois