Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 50 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Data & IA

Publiée le
Business Analysis
Dataiku
IA

1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Dataiku
ELK

3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Freelance

Mission freelance
Machine Learning Engineer (Détection des fraudes)

Publiée le
Data science
Dataiku
Machine Learning

4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance
CDI

Offre d'emploi
Delivery Manger

Publiée le
Dataiku
Gestion de projet

1 an
40k-45k €
250-700 €
Paris, France
Télétravail partiel
Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Responsabilités Gestion de la livraison : Supervisation de l'ensemble du cycle de vie du projet, en garantissant la livraison des solutions dans les délais impartis, tout en respectant les contraintes budgétaires et les exigences de qualité. Coordonnation des équipes pluridisciplinaires (IT, métiers, partenaires externes) et participer à la synchronisation des différents projets du programme. Suivre l'avancement du projet et communiquer à la Direction de Programme les indicateurs de performance du projet. Gestion des risques et des dépendances : Identification, évaluation et suivi des risques liés à la livraison du projet en mettant en place des plans d'action correctifs pour minimiser leur impact. Suivre les adhérences entre les différents projets du programme en s'assurant que les interfaces et les intégrations soient optimisées et sans friction. Collaboration avec la Direction de Programme et les Parties Prenantes : Suivre une communication fluide et transparente avec les parties prenantes, notamment avec la Direction de Programme. Préparation et animer les comités de suivi et de pilotage du projet. Suivi de l'alignement des objectifs stratégiques avec les actions opérationnelles menées sur le terrain.
Freelance

Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier

Publiée le
Backlog management
Cloudera
Data governance

12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance
CDI

Offre d'emploi
PO DATA - DECISIONNEL

Publiée le
Data management
Dataiku
ETL (Extract-transform-load)

3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Freelance

Mission freelance
Analyst Support Monétique(Secteur hôtelier/ retail)

Publiée le
Analyse financière
Business Analyst
Microsoft Analysis Services (SSAS)

12 mois
390-410 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Au sein de l’équipe Paiement, vous interviendrez en binôme avec un Product Owner pour assurer le support et la gestion de projets autour des solutions de paiement in-hotel. Le périmètre initial est France , avec une extension Monde prévue dans un second temps. Missions principales Support monétique : Résoudre les incidents de production liés aux paiements (TPE, interfaces, prestataires). Gérer les escalades avec les prestataires monétiques (Worldline, JDC, Planet, etc.). Assurer le suivi des incidents et leur résolution complète. Projets monétiques : Participer en tant qu’expert monétique aux projets de conformité et d’évolution (normes, réglementation, interfaces). Exemples : migration CB 5.5, préparation FRV6, mise à jour du parc TPE et logiciels selon les exigences légales ou VISA/MASTERCARD. Documentation et process : Mettre à jour et améliorer les documentations et procédures monétiques internes. Support fonctionnel et formation : Apporter conseils et accompagnement aux équipes internes. Former les utilisateurs au paiement in-hotel. Compétences techniques requises CompétenceNiveau Importance Monétique TPE (proximité) Confirmé Impératif Connaissance du monde hôtelier / retail Confirmé Important Monétique France (Axis, Worldline, etc.) Confirmé Souhaité Compétences linguistiques Français : courant ( impératif ) Anglais : professionnel ( impératif ) Compétences fonctionnelles et relationnelles Bon sens du service et du support Capacité à travailler en équipe et en binôme (avec PO) Rigueur, autonomie et sens de la communication Motivation pour les environnements hôtelier et retail
Freelance
CDI

Offre d'emploi
Proxy Product Owner – Automatisation des Processus (H/F)

Publiée le
Business Process Model and Notation (BPMN)
Méthode Agile
RPA (Robotic Process Automation)

1 an
50k-70k €
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre programme d’automatisation à l’échelle du Groupe, nous recherchons un Proxy Product Owner spécialisé en automatisation des processus pour accompagner les équipes métiers dans l’identification, la modélisation et l’optimisation des workflows éligibles à l’automatisation (agents IA, Dataiku, automatisations hybrides). Missions principales Identifier et analyser les processus métiers avec les équipes opérationnelles. Modéliser les processus « as-is » et « to-be » en BPMN 2.0. Construire, prioriser et gérer le backlog d’automatisation (epics, user stories, critères d’acceptation). Contribuer à la création des business cases : gains, ROI, KPIs, valeur métier. Travailler en étroite collaboration avec l’équipe de développement Dataiku (design, validation des livrables, amélioration continue). Accompagner le changement, former les équipes et promouvoir la culture de l’automatisation. Compétences requises Maîtrise de BPMN 2.0 et de la modélisation de processus. Expérience en automatisation (RPA, IA, workflow, data-driven). Connaissance de Dataiku (fort atout). Solide culture Agile/Scrum. Excellentes capacités d’analyse, de communication et d’animation d’ateliers. Compréhension des APIs, pipelines data ou orchestrations (appréciée).
CDI
Freelance

Offre d'emploi
Ingénieur DevOps/SRE

Publiée le
Automatisation

1 an
60k-80k €
480-730 €
Paris, France
Télétravail partiel
Concevoir, développer et exploiter des opérations de traitement des paiements fluides, automatisées, évolutives et sécurisées. Développer et maintenir l’infrastructure en tant que code (IaC) avec Terraform et GitLab CI/CD pour des déploiements sûrs et reproductibles. Exploiter et optimiser des services sur IBM Cloud et cloud privé, en garantissant une haute disponibilité et la conformité réglementaire (PCI DSS, DORA…). Définir et suivre les SLI/SLO, piloter les analyses post-mortem et conduire l’amélioration continue de la fiabilité. Mettre en place une surveillance robuste, des alertes et une remédiation automatisée sur l’ensemble des produits. Collaborer avec les équipes logiciels, DevOps, sécurité, opérations et conformité pour intégrer contrôles et auditabilité dans le cycle de vie des services.
Freelance

Mission freelance
Consultant Architecte Cloud, Réseau et Datacenter

Publiée le
Architecture
Azure
Finance

1 an
520-750 €
La Défense, Île-de-France
Télétravail partiel
Nous recherchons pour un de nos clients un Consultant Cloud, Réseau et Datacenter. Vous serez responsable de la conception et de la mise en œuvre de solutions cloud hybrides, datacenter et réseau pour soutenir la stratégie technologique et les exigences réglementaires du secteur financier. Vous interviendrez sur des projets stratégiques, en collaboration avec des équipes globales et locales. Missions principales Évaluer et optimiser l’infrastructure IT existante. Concevoir des architectures sécurisées et évolutives (Azure, on-premises). Piloter des migrations vers le cloud. Garantir la conformité (ISO 27001, PCI DSS, SOC 2) et la sécurité des données. Collaborer avec les équipes risques, conformité et sécurité. Conseiller sur la résilience, la continuité et l’optimisation des coûts.
Freelance

Mission freelance
Directeur de Programme Data / IA

Publiée le
Cloudera
Data analysis
Data governance

12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance

Mission freelance
Architecte cloud azure et on prem H/F

Publiée le
Azure
DataCenter Infrastructure Management (DCIM)

1 an
610-730 €
Paris, France
Télétravail 100%
Contexte : Au sein d’une équipe internationale, vous apportez votre expertise sur les infrastructures hybrides (datacenter + cloud Azure) afin de garantir sécurité, conformité réglementaire et performance des plateformes technologiques. Responsabilités principales Évaluer l’infrastructure existante et définir la stratégie cloud/datacenter conforme aux réglementations financières (FCA, PRA, GDPR…). Concevoir et mettre en œuvre des solutions sécurisées, scalables et alignées sur la stratégie technologique régionale. Accompagner les équipes de direction sur la roadmap et les initiatives stratégiques. Optimiser les coûts, réduire les risques et renforcer la résilience des systèmes critiques. Architecturer des environnements hybrides (Azure + on-premise) et piloter les migrations applicatives vers le cloud. Collaborer avec les équipes Architecture, Cyber, Cloud Ops et autres experts pour garantir l’équilibre entre besoins métiers et exigences de cybersécurité. Produire la documentation (process, guides, templates) supportant l’adoption du cloud. Assurer la conformité aux standards (ISO 27001, PCI DSS, SOC 2) et accompagner les audits. Surveiller la performance et la disponibilité des systèmes critiques.
Freelance

Mission freelance
Proxy Product Owner (PO) - Automatisation des Processus

Publiée le

6 mois
500 €
75001, Paris, Île-de-France
Dans le cadre de l'initiative Group Process Automation , nous recherchons un Proxy Product Owner (PO) - Automatisation des Processus pour renforcer notre équipe. Ce rôle sera responsable de la collaboration avec les équipes métiers à travers l'organisation afin d'identifier, évaluer, modéliser et optimiser les processus métiers candidats à l'automatisation via des agents IA et la plateforme Dataiku . Le Proxy PO contribuera à traduire les besoins métiers en exigences d'automatisation concrètes, à construire et prioriser le backlog d'automatisation, et à soutenir l'équipe de développement dans la livraison de workflows automatisés de haute qualité. Le rôle inclut également la participation à la création de business cases, à l'évaluation de la valeur et à la conduite du changement pour assurer l'adoption réussie des solutions automatisées. Objectifs et Livrables Responsabilités Clés 1. Identification et Évaluation des Processus Métiers Collaborer avec les équipes métiers pour comprendre leurs défis opérationnels, workflows et points de douleur. Animer des ateliers et des interviews pour capturer les processus existants (« as-is »). Identifier et qualifier les processus adaptés à l'automatisation (agents IA, schémas RPA, flux Dataiku ou automatisations hybrides). Évaluer la faisabilité de l'automatisation en fonction de la complexité, de la disponibilité des données, des coûts, du potentiel de valeur et des risques. 2. Modélisation des Processus en BPMN 2.0 Modéliser les processus actuels et cibles selon les standards BPMN 2.0. Identifier les inefficacités et opportunités d'amélioration avant automatisation. Produire une documentation claire et détaillée pour soutenir la conception et le développement. Collaborer avec les parties prenantes pour valider et affiner les schémas de processus. 3. Définition du Backlog & Rôle de Product Owner Transformer les besoins métiers et analyses de processus en epics, user stories et critères d'acceptation bien définis. Prioriser le backlog d'automatisation en fonction de la valeur métier, des estimations d'effort et des priorités stratégiques. Servir d'intermédiaire entre les parties prenantes métiers et l'équipe de développement Dataiku. Participer aux cérémonies Agile (raffinements, planification de sprint, démos, rétrospectives). 4. Business Case & Réalisation de la Valeur Aider les équipes métiers à définir les bénéfices financiers et non financiers des initiatives d'automatisation. Estimer les gains potentiels (temps, coûts, réduction des erreurs) et la valeur apportée. Suivre les KPI et indicateurs de succès après mise en œuvre. Contribuer à la gouvernance de la réalisation des bénéfices. 5. Collaboration avec l'Équipe de Développement Dataiku Travailler en étroite collaboration avec les développeurs Dataiku pour garantir la bonne compréhension et mise en œuvre des exigences. Participer aux discussions de conception concernant les agents IA, flux de données, connecteurs et logique d'orchestration. Valider les livrables pour assurer leur conformité avec la logique des processus et les attentes métiers. Fournir des retours et améliorations dans le cadre des cycles de livraison itératifs. 6. Conduite du Changement & Engagement des Parties Prenantes Aider les équipes métiers à se préparer à l'adoption des processus automatisés. Communiquer clairement les avancées, délais et attentes aux parties prenantes à tous les niveaux. Fournir des formations ou transferts de connaissances si nécessaire. Promouvoir la culture de l'automatisation et les bonnes pratiques dans l'organisation. Compétences et Qualifications Requises Compétences Techniques & Fonctionnelles Maîtrise des standards BPMN 2.0 et de la modélisation des processus métiers. Expérience en automatisation des processus (RPA, agents IA, workflows automatisés ou automatisation basée sur les données). Connaissance de Dataiku (fort atout). Bonne compréhension des méthodologies Agile/Scrum. Capacité à traduire les besoins métiers en exigences fonctionnelles et techniques. Expérience dans la création de business cases et l'évaluation ROI/valeur. Compréhension basique des API, pipelines de données ou orchestration de workflows. Compétences d'Analyse & Résolution de Problèmes Excellente capacité à analyser des processus métiers complexes. Approche orientée résolution, avec un esprit d'optimisation et de simplification. Capacité à challenger les pratiques existantes et proposer des améliorations. Compétences Interpersonnelles & Communication Excellentes compétences en communication écrite et orale, avec la capacité d'interagir avec des interlocuteurs techniques et non techniques. Solides compétences en animation d'ateliers, interviews et sessions de découverte de processus. Capacité à conduire des discussions, gérer les attentes et influencer les décisions. Expérience Professionnelle 8 à 10 ans d'expérience en gestion des processus, analyse métier, automatisation ou domaines similaires. Expérience préalable dans des initiatives RPA/IPA ou des centres d'excellence en automatisation (atout). Expérience dans des environnements transverses et internationaux.
Freelance

Mission freelance
Proxy Product Owner (h/f)

Publiée le

1 mois
490-510 €
92400, Saint-Germain-en-Laye, Île-de-France
Télétravail partiel
Résumé: Ce poste de Proxy Product Owner (PO) est dédié à l'automatisation des processus au sein d'une équipe dynamique. Le principal objectif du PO est de collaborer avec les équipes commerciales pour identifier et optimiser les processus pouvant être automatisés, tout en garantissant que les solutions répondent aux besoins business et soient adoptées efficacement par l'organisation. Responsabilités: Identification et évaluation des processus métier Modélisation des processus avec BPMN 2.0 Définition du backlog et gestion du produit Analyse de rentabilité et réalisation de la valeur Collaboration avec l'équipe de développement Dataiku Gestion du changement et engagement des parties prenantes Compétences: Expérience professionnelle: 8 à 10 ans Solide connaissance du BPMN 2.0 Expérience en automatisation des processus (RPA, agents IA) Connaissance de Dataiku Compréhension des méthodologies Agile/Scrum Capacité à traduire les besoins commerciaux en exigences fonctionnelles Autres détails: Localisation: La Défense Durée de la mission: +1 an Télétravail: 2 jours par semaine
50 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous