Trouvez votre prochaine offre d’emploi ou de mission freelance à Paris
Votre recherche renvoie 2 333 résultats.
Mission freelance
[SCH] Business Analyst Homologateur Virements - 1356
ISUPPLIER
Publiée le
10 mois
400-450 €
Paris, France
Intégration à la squad Virements pour contribuer aux projets réglementaires et d’évolution des paiements, avec un focus majeur sur Instant Payment Regulation (IPR) et le Rulebook. Le rôle est centré sur la recette/homologation et le pilotage transverse des campagnes de tests. Mission : -Définir la stratégie de recette et l’organisation des campagnes (périmètre, planning, environnements, critères d’entrée/sortie). -Préparer et exécuter la recette fonctionnelle : cas de test, jeux de données, exécution, preuves, non-régression. -Assurer la coordination transverse (métiers, IT, MOE, partenaires) et le pilotage des tests. -Animer les rituels recette (daily tests, suivi anomalies) et produire le reporting (avancement, risques, arbitrages). -Capitaliser : documentation, PV de recette, REX, recommandations. Profil attendu : -BA orienté homologation/recette autonome. -Expertise forte sur les virements : SEPA SCT, Instant Payments et autres rails associés. -Capable de piloter une recette multi-acteurs et de structurer un plan de tests robuste. -À l’aise avec la gestion des anomalies (priorisation, suivi, qualification) et la communication transverse. -Compréhension des exigences réglementaires (IPR/Rulebook) et capacité à les traduire en tests.
Mission freelance
Consultant DevOps SRE (h/f)
emagine Consulting SARL
Publiée le
Terraform
3 ans
Paris, France
Description du service : En tant que Senior Software Engineer supportant la plateforme GHES , le service sera responsable du développement de fonctionnalités d’entreprise, d’automatisations et d’intégrations visant à améliorer les capacités et la fiabilité de la plateforme. Le service sera intégré dans un environnement agile ( SCRUM , SAFe ), favorisant une culture de confiance, de transparence et d’amélioration continue. Livrables du service : Concevoir, développer et maintenir l’automatisation des infrastructures à l’aide de Terraform et Ansible . Encadrer une équipe de SRE et d’ingénieurs afin de garantir la fiabilité, la sécurité et l’évolutivité de la plateforme. Piloter les processus d’automatisation et de gestion des incidents conformément aux principes SRE . Contribuer à l’évolution du socle SDLC pour répondre aux exigences métier, de gouvernance et opérationnelles. Collaborer avec les parties prenantes des différentes équipes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle & livraison de fonctionnalités : Expertise avérée dans le développement de fonctionnalités d’entreprise, d’API ou d’outils d’automatisation dans un environnement cloud ou d’entreprise. Infrastructure as Code (IaC) : Expertise approfondie de Terraform et Ansible pour le déploiement d’infrastructures et la gestion de configuration. Supervision & gestion des incidents : Solide connaissance des systèmes de monitoring, de l’alerte et des processus de gestion des incidents. Architecture système : Conception et optimisation d’architectures évolutives, sécurisées, conformes et résilientes. DevSecOps & CI/CD : Expertise pratique des pipelines CI/CD , de l’automatisation et des stratégies de déploiement. Expertise technique : GitHub Enterprise Server (GHES) : Maîtrise avancée de la gestion, du déploiement et des fonctionnalités de GHES . Plateformes cloud : Expertise des fournisseurs cloud tels que Azure ou AWS , en particulier dans le contexte de solutions hybrides ou de contraintes de résidence des données. Gouvernance & résidence des données : Expertise des considérations de sécurité, conformité et résidence des données en entreprise. Langages & outils : Maîtrise du scripting ( Bash , PowerShell ) et familiarité avec les outils d’automatisation ( Terraform , Ansible ) et de supervision. Jira et Confluence : Expertise dans l’utilisation de Jira pour la gestion de projets et de Confluence pour la documentation et la collaboration. Expertises supplémentaires : Collaboration & interface : Interface avec des équipes transverses, parties prenantes et utilisateurs finaux. Résolution de problèmes : Forte capacité analytique pour diagnostiquer les problèmes et mettre en œuvre des solutions efficaces. Environnement anglais Qualifications du service : 5 à 7+ ans d’expérience professionnelle en ingénierie logicielle, DevOps ou développement de plateformes, avec un historique de livraison de fonctionnalités d’entreprise. Expertise technique approfondie en automatisation, développement de plateformes et support opérationnel. Méthodologies agiles ( SCRUM , SAFe ). Expertise dans l’implémentation et le support d’outils et frameworks SDLC évolutifs. Connaissance des exigences de conformité, de sécurité et de gouvernance au sein de grandes organisations.
Offre d'emploi
Expert(e) Calypso
Accelite
Publiée le
Architecture
Calypso
CI/CD
1 an
50k-70k €
500-600 €
Paris, France
🎯 Contexte de la mission : Un grand établissement public évoluant dans le secteur financier recherche un(e) Expert(e) Technique Calypso pour renforcer son équipe en charge d’un système stratégique de traitement des opérations de marché . Vous interviendrez dans un environnement international et collaborerez avec plusieurs acteurs européens. 📌 Votre rôle : En tant qu’ Expert(e) Calypso , vous prendrez en charge des travaux de conception, analyse, support technique et intégration autour d’une architecture complexe basée sur le progiciel Calypso v18 . Vos principales missions : Rédaction de spécifications générales et détaillées Animation d’ateliers techniques et coordination avec les équipes internes & partenaires externes Maintenance proactive de l’architecture (performance, suivi des flux, optimisation…) Définition et exécution des tests unitaires Support aux équipes techniques (architectes, développeurs, exploitation…) Support aux équipes métiers (front, middle, back, risques, comptabilité) P ackaging, installation, gestion des environnements Analyse technique des solutions proposées par l’éditeur Contribution aux projets d’ onboarding , d’ automatisation , et de migration vers Calypso v19+ 🛠️ Environnement technique : Calypso 18 Bases de données Oracle 19c , PostgreSQL 14/16 Linux RHEL 8+ SpringBoot VAULT, ELK GitLab, Jenkins, Eclipse, SQL Developer, Sonar XLDeploy, Ansible Connaissance EXDI, MQ, Cloud (Kubernetes)
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Ingénieur de Production Mainframe – Secteur bancaire – Paris – 2j TT
ASAP TECHNOLOGIES
Publiée le
EGEN
JCL (Job Control Language)
Mainframe
1 an
40k-45k €
400-420 €
Paris, France
Au sein de l’équipe, vous intervenez sur la conception, le développement, la livraison et la maintenance des composants techniques nécessaires à l’exécution des programmes en environnement Mainframe . À ce titre, vos principales missions seront les suivantes : Concevoir, développer et livrer les composants JCL et les applications TWS Participer à la conception des applications en apportant des préconisations sur l’architecture des traitements batch , leur exploitabilité, leur découpage et leur automatisation Développer les applications industrialisées et automatisées dans l’ordonnanceur TWS dans le respect des normes et standards d’industrialisation Mettre à disposition des équipes concernées les JCL développés Livrer les applications TWS Installer et exécuter les applications de reprise ou d’initialisation Assister les équipes d’édition et le pilotage d’environnement durant les phases de recette en cas d’incident sur les applications livrées Assurer la maintenance et l’amélioration du parc applicatif Mainframe Faire évoluer les applications selon les contraintes d’exploitation et les évolutions des normes de production Améliorer les performances en collaboration avec les autres équipes concernées Maintenir les consignes d’exploitation Vous pourrez également être amené(e) à : Participer aux différentes phases projet, voire piloter certains sujets Mettre en œuvre des solutions techniques Réaliser des diagnostics afin d’identifier les causes de dysfonctionnement et proposer des actions correctives ou des solutions de back-up Définir et faire appliquer les règles de bonne gestion des systèmes d’exploitation Assurer la cohérence, l’assemblage, la validation et l’homologation des composants logiciels Prendre en charge l’intégration de nouvelles applications ou progiciels, en transactionnel et/ou batch Effectuer la réception, la validation et le packaging des composants Réaliser la recette technique et l’homologation des composants / applications Participer à l’amélioration continue des processus et des outils d’industrialisation et de déploiement Travailler en étroite collaboration avec les équipes Études, Infrastructures et Sécurité Volet tests techniques Dans le cadre de vos missions, vous interviendrez également sur : La prise de connaissance du changement et de son contexte technique La complétion du plan de tests La préparation des infrastructures de tests La validation des documents et procédures à destination de la production La réalisation des tests techniques L’analyse des résultats La contribution au diagnostic en cas de dysfonctionnement La rédaction des rapports détaillés pour aider à la décision de GO / NO GO avant mise en production La mise à jour du patrimoine de tests réutilisable Le reporting vers le Responsable Intégration L’amélioration continue L’industrialisation des tests techniques récurrents via l’automatisation et l’outillage
Offre d'emploi
Analytics Engineer
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Mission freelance
Chef de projet Sénior – Déploiement e-Invoicing / Parallel Run / Conformité fiscale
Signe +
Publiée le
Gestion de projet
10 mois
750 €
Paris, France
Programme de transformation SI Finance lié à la mise en conformité avec la réforme de la facturation électronique. La mission porte sur la gestion de la phase de transition entre les systèmes de facturation existants et le nouveau dispositif réglementaire. Descriptif de mission - SF-1002… Responsabilités Pilotage de la phase de parallel run entre facturation historique et facturation électronique Coordination des tests avec les plateformes de dématérialisation et autorités fiscales Sécurisation du Go-Live et déploiement progressif Gestion des risques de transition et écarts de données Coordination entre équipes IT, fiscalité et métiers Suivi strict du planning et des jalons du programme Profil recherché +7 ans en gestion de projet SI Expérience déploiement progressif / migration / parallel run Bonne compréhension des flux de facturation et échanges de données (EDI, API) Connaissance des enjeux e-Invoicing / conformité fiscale Expérience programmes SI Finance complexes
Offre d'emploi
PO Data / Business Analyst confirmé
KOMEET TECHNOLOGIES
Publiée le
Microsoft Power BI
45k-60k €
Paris, France
Intervention dans un projet BI avec une forte composante métier. Le consultant participera aux ateliers de recueil du besoin , réalisera des maquettes de Dashboards sous Power BI avant développement dans MicroStrategy (qui sera assuré par la DSI) , afin de s’assurer de l’alignement avec les attentes métiers. La mission inclut également la rédaction des Spécification Fonctionnel, des activités de data analyse / modélisation et la participation à la recette métier .
Mission freelance
Ingénieur DevOps/ Administration MongoDB
CAT-AMANIA
Publiée le
Apache Kafka
Mongodb
12 mois
400-580 €
Paris, France
Vous rejoindrez notre équipe en charge de l’administration et du maintien en condition opérationnel de la plateforme MongoDB Atlas ainsi qu’à la mise en production et à l’industrialisation des projets. Vos missions consisteront à contribuer: Accompagner les équipes projet dans la mise en place des bases Gérer les installations, montées de version, paramétrage et optimisation des bases Amélioration des performances (tuning des requêtes SQL, configuration des services) Assurer le support en interne en cas de bug ou d’anomalies Assurer la relation avec les fournisseurs externes (MongoDB) Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Assurer le monitoring et Observabilité Mettre en place et améliorer les solutions de monitoring de la plateforme Superviser les clusters et les noeuds sur MongoDB Atlas Assurer la surveillance des services (Sharding, Archive Online, …) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Contribuer à l'audit et à la gouvernance des ressources MongoDB Atlas Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques (interface avec KMS Google et FortaniX, gestion des rôles, cryptage, interface avec notre solution SoC ) Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement
Mission freelance
Tech Lead Java – management d’une équipe de développeurs et pilotage technique
INSYCO
Publiée le
Ansible
AWS Cloud
Docker
36 mois
500-660 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Tech Lead Java – management d’une équipe de développeurs et pilotage technique . Dans le cadre d’une prestation de transition, vous interviendrez au sein d’un pôle de développement d’une vingtaine de personnes organisé en équipes agiles (Scrum) dans un environnement SAFe. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco.fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence MDE/TLM/5075 dans l’objet de votre message Dans le cadre d’une organisation de développement structurée autour d’équipes agiles, la prestation consiste à intervenir en tant que Tech Lead manager de transition afin d’encadrer et structurer un pôle d’environ vingt développeurs. Les équipes sont organisées en Scrum et fonctionnent dans un environnement agile à l’échelle de type SAFe , avec des sprints de trois semaines et des cycles de planification trimestriels. L’activité applicative concerne plusieurs domaines fonctionnels autour d’un système d’information comprenant notamment : un CRM dédié au suivi de la relation avec les clients et à la gestion contractuelle un ERP couvrant des processus de facturation et de comptabilité des applications mobiles utilisées pour des activités opérationnelles de terrain différents outils applicatifs participant aux processus de gestion et d’exploitation du système d’information L’équipe de développement est composée à la fois de collaborateurs internes et de prestataires externes, avec des niveaux de séniorité variés. La prestation couvre notamment les activités suivantes : animer et faire progresser une équipe de développeurs superviser la qualité du code produit par les équipes participer à l’évaluation des développeurs et contribuer aux recrutements techniques valider les conceptions techniques proposées par les équipes piloter les coûts liés aux évolutions techniques encourager et diffuser les bonnes pratiques de développement contribuer à la poursuite et à l’amélioration des pipelines CI/CD participer ponctuellement à certains développements sur les applications du domaine favoriser l’innovation et les démarches d’amélioration continue Le prestataire devra également jouer un rôle structurant dans la diffusion des pratiques techniques, la coordination entre équipes et l’amélioration continue de la qualité logicielle.
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Mission freelance
Directeur de programme SI Finance – e-Reporting / Order-to-Cash / Architecture distribuée
Signe +
Publiée le
autonomie
10 mois
700 €
Paris, France
Contexte Programme stratégique de transformation autour de la conformité fiscale et de la digitalisation des flux de vente et de comptabilité. Descriptif de mission - SF-1004… Responsabilités Pilotage d’un stream stratégique multi-produits Encadrement et coordination de plusieurs Product Managers Convergence de nombreux systèmes de facturation Garantie de la cohérence globale des flux financiers Supervision de l’architecture technique Arbitrage des priorités techniques et fonctionnelles Profil recherché +10 ans en direction de programmes SI Expertise Order-to-Cash / flux financiers Expérience pilotage programmes SI complexes multi-équipes Bonne culture architectures distribuées et API Capacité à piloter des programmes à forte contrainte réglementaire
Offre d'emploi
Business Analyst - Dealing Pricing rate swap (H/F)
STORM GROUP
Publiée le
AMOA
Business Analyst
MOA
36 mois
54k-65k €
550-620 €
Paris, France
La mission se déroulera au sein du pôle Pricing/Trading dans l'équipe Web Applications L’offre Web Applications met à disposition des clients et de la vente des outils de pricing et trading de produits de couverture de taux et change. Avoir une bonne connaissance des produits, du trading électronique et de manière générale finance de marché est indispensable. Très bonnes connaissances du pricing des produits de Taux et Change (swap, cap etc…) Organisé, rigoureux et bon communiquant Appétence technique: investiguer un problème technique avec les développeurs, requêtes SQL Avoir un anglais courant
Offre d'emploi
Expert PowerBuilder sur Paris
EterniTech
Publiée le
PowerBuilder
SQL
3 ans
Paris, France
Je recherche pour un de mes clients un expert power Builder sur Paris Contexte de la mission Dans le cadre de la maintenance et de l’évolution d’un système d’information critique, notre client recherche un Expert PowerBuilder afin de renforcer une équipe en charge d’applications métiers stratégiques. Ces applications, historiquement développées sous PowerBuilder, jouent un rôle central dans les processus opérationnels et font actuellement l’objet d’optimisations et de projets d’évolution. Responsabilités Assurer la maintenance corrective et évolutive des applications développées en PowerBuilder Analyser les besoins métiers et rédiger les spécifications techniques Participer aux évolutions fonctionnelles et à l’amélioration des performances des applications Réaliser les développements et garantir la qualité du code Assurer les tests unitaires et l’intégration des nouvelles fonctionnalités Participer au support technique et à la résolution des incidents complexes Contribuer aux réflexions sur la modernisation ou migration éventuelle des applications existantes Documenter les développements et partager les bonnes pratiques avec l’équipe Environnement technique PowerBuilder (version récente ou legacy) SQL / bases de données relationnelles (Oracle, SQL Server ou Sybase) Outils de gestion de versions (Git, SVN…) Méthodologies de développement structurées (cycle en V ou Agile selon le contexte)
Mission freelance
Product Owner Application Mobile - Médias
Mon Consultant Indépendant
Publiée le
CRM
Product management
6 mois
600-640 €
Paris, France
Contexte : Dans le cadre de son projet de transformation digitale, un média national lance en 2026 une application mobile étroitement articulée à une Modern Data Stack et à des cas d’usage orientés : acquisition d’abonnés activation des nouveaux abonnés engagement de lecture rétention / prévention du churn personnalisation éditoriale et marketing orchestration des parcours relationnels mobile L’application constitue un canal stratégique de développement des abonnements, de relation directe avec les lecteurs et de réduction de la dépendance aux plateformes tierces. Le Product Owner attendu interviendra dans un environnement comportant notamment : un CRM abonnés des outils de tracking et analytics des outils de push / messaging / marketing automation des équipes éditoriales, produit, data et techniques des enjeux forts de conformité RGPD, de sobriété, de traçabilité et d’alignement avec les valeurs du média Un PO actuellement en place assurera le transfert des sujets, du contexte, des arbitrages déjà réalisés et des éléments de backlog. Objectif de la mission : Piloter le cadrage produit puis le delivery de l’application mobile jusqu’au go live prévu entre mi et fin novembre 2026, en garantissant : la cohérence entre besoins business, éditoriaux, abonnements et data la qualité du backlog et des arbitrages la bonne coordination entre métiers et équipes de réalisation la tenue du planning la préparation opérationnelle de la phase d’UAT et de lancement Mission principales : 1. Reprise de contexte et transfert – récupérer les éléments du PO, consolider la vision produit, backlog et priorités, identifier risques et décisions en suspens. 2. Pilotage produit mobile – porter la vision fonctionnelle, transformer les enjeux business en fonctionnalités priorisées, aligner expérience utilisateur et objectifs de rétention, structurer la roadmap. 3. Gestion du backlog – rédiger et maintenir epics, user stories et critères d’acceptation, prioriser selon valeur métier et faisabilité, préparer sprints et releases. 4. Coordination transverse – relier produit, tech, data, CRM, marketing, éditorial et direction, organiser points de cadrage, arbitrage et validation, documenter et diffuser décisions. 5. Mobile / souscription – cadrer parcours utilisateurs, onboarding et abonnement, intégrer push notifications, personnalisation et engagement, connecter l’app aux outils CRM, analytics et contenus. 6. Suivi de delivery – accompagner les équipes de développement, clarifier besoins et lever blocages, suivre avancement, dépendances et livrables. 7. UAT et lancement – piloter tests et recettes, lever réserves, sécuriser le go live et contribuer au plan de lancement et stabilisation post-prod. Profil recherché : Expérience : 5 ans minimum en Product Ownership ou Product Management digital expérience significative sur des applications mobiles expérience confirmée dans des contextes médias, contenus, abonnements numériques, presse, édition, OTT, plateformes de contenus ou services à logique récurrente expérience sur des projets avec enjeux de conversion, activation, engagement et rétention Compétences indispensables : maîtrise des méthodes de cadrage produit et de delivery agile excellente capacité de rédaction de backlog bonne compréhension des environnements iOS / Android / app mobile bonne culture des parcours de souscription, login, onboarding et fidélisation aisance avec les sujets de tracking, analytics, CRM, push, A/B testing et personnalisation capacité à dialoguer avec des équipes techniques, data et métier capacité à arbitrer dans un contexte contraint en budget et calendrier Compétences appréciées : expérience dans un environnement de presse / média d’information connaissance des problématiques de paywall, abonnements, engagement éditorial sensibilité aux enjeux RGPD, gouvernance de la donnée, pseudonymisation, consentement expérience de coordination avec des équipes data autour de cas d’usage prédictifs ou segmentations comportementales
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2333 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois