Trouvez votre prochaine mission.
Votre recherche renvoie 8 341 résultats.
Mission freelance
Expert data DataCloud (DataBricks) Nantes /st
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Mission freelance
Service Delivery Manager End User (H/F)
Freelance.com
Publiée le
JIRA
Microsoft Excel
3 mois
400-580 €
Suresnes, Île-de-France
Dans le cadre d’un besoin urgent, nous recherchons un Service Delivery Manager End User en charge du pilotage, de la coordination et de l’amélioration continue des services liés à l’environnement de travail des utilisateurs en France. À ce titre, vos principales responsabilités seront : Pilotage de la qualité de service Garantir la livraison des services conformément aux SLA et assurer le pilotage opérationnel du support IT et des équipes techniques. Gérer la relation avec les prestataires et les différentes parties prenantes internes et externes. Assurer la cohérence des pratiques entre les équipes localisées sur plusieurs sites internationaux. Piloter les fournisseurs de matériel (postes de travail, équipements de salles de réunion, accessoires, etc.). Gestion des incidents et des problèmes Superviser la résolution des incidents utilisateurs et mettre en place des actions correctives durables. Gérer les escalades, incluant le support aux populations VIP. Conformité & gestion des actifs Piloter les actions de remédiation sécurité sur les postes de travail. Gérer les stocks, les inventaires et les seuils d’alerte. Anticiper les besoins et assurer les commandes. Amélioration continue & projets Identifier et mettre en œuvre des optimisations de processus et de nouveaux services. Contribuer aux projets workplace afin de garantir la continuité des services. Organiser le transfert vers le RUN et piloter de petits projets front-office. Gouvernance & reporting Préparer et animer les comités opérationnels et de pilotage. Produire et analyser les KPI et le reporting mensuel. Suivre la performance des services et la satisfaction utilisateurs. Démarrage : ASAP Durée : 1 an renouvelable
Mission freelance
PMO IT Cloud AWS
Karma Partners
Publiée le
AWS Cloud
6 mois
400-550 €
Île-de-France, France
ANGLAIS COURANT OBLIGATOIRE Coordonner et soutenir plusieurs programmes et projets informatiques dans divers domaines. Participer aux comités d'architecture et aux discussions techniques avec différentes parties prenantes, notamment les équipes de sécurité. Gérer les contraintes telles que les délais, les défis techniques et les exigences réglementaires pour garantir le succès des projets. Maintenir une documentation de projet complète à l'aide de Jira et Confluence, et créer des présentations percutantes et des synthèses pour les comités de pilotage. Contribuer à l'identification des points de blocage, des actions correctives et des stratégies de mise à l'échelle/d'atténuation. Collaborer étroitement avec les équipes techniques pour documenter avec précision les problèmes et solutions informatiques complexes. Faire preuve d'adaptabilité face à l'évolution rapide des projets et des technologies, et fournir des analyses stratégiques sur la priorisation et l'allocation des ressources
Mission freelance
Security Engineer GCP
Cherry Pick
Publiée le
Google Cloud Platform (GCP)
IAM
Sécurité informatique
12 mois
580-600 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Security Engineer GCP" pour un client dans le secteur de la grande distribution spécialisé Description 🏢 Le Contexte : Vous rejoignez le domaine Cloud Platform Engineering (CPE) , une organisation transverse de près de 200 personnes lancée en 2020 pour construire les fondations technologiques du Groupe. L'objectif de la CPE est de rationaliser le catalogue technique et de fournir des services « clé en main » (Réseaux, Observabilité, FinOps) aux équipes applicatives pour accélérer le développement de nouvelles fonctionnalités. Au sein de ce domaine, la sécurité est un axe stratégique permanent. 🎯 Vos Missions : Stratégie, Architecture et Résilience En lien direct avec le Security Officer du domaine et l’équipe United Security, vous portez la posture de sécurité sur les périmètres Infrastructure et Réseau. 1. Vision & Gouvernance : Définir la vision et la stratégie à moyen et long terme de la sécurité réseau du Groupe. Animer la définition, la communication et l'application des politiques de sécurité. Définir et piloter les indicateurs de sécurité pour donner une visibilité globale sur votre périmètre. 2. Architecture & Projets : Co-construire les solutions techniques au sein des comités d’architecture pour garantir la prise en compte des exigences de sécurité dès la conception. Intégrer les actions de sécurisation dans les roadmaps des responsables produits. Accompagner les équipes opérationnelles dans la mise en œuvre des actions de hardening et de sécurisation. 3. Opérations & Résilience : Garantir la résilience des produits réseaux face aux enjeux métiers. Identifier les risques sur votre périmètre et assurer le suivi de leur traitement avec les parties prenantes. Animer la résolution des incidents de sécurité et piloter les plans d'action post-incident. 4. Sensibilisation & Veille : Porter la culture sécurité, risque et conformité au sein de votre BU et favoriser les bonnes pratiques. Assurer une veille permanente pour identifier les nouvelles vulnérabilités et proposer des solutions technologiques innovantes.
Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st
WorldWide People
Publiée le
Data analysis
12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
Mission freelance
Senior Python Engineer – AI Agents & Automatisation (H/F)
Tenth Revolution Group
Publiée le
API REST
Python
12 mois
350-500 €
Lille, Hauts-de-France
🎯 Contexte de la mission Dans le cadre d'une transformation IA au sein d'un grand groupe retail européen , nous recherchons un Senior Python Engineer spécialisé en développement d'agents autonomes via OpenAI Agents SDK pour concevoir et industrialiser des workflows intelligents au cœur d'un SI complexe. 🛠️ Missions principales Conception et développement d' agents autonomes multi-steps avec OpenAI Agents SDK Intégration des agents dans les APIs internes et le SI existant (ERP, PIM, outils métier) Automatisation de processus métier complexes : orchestration des workflows, gestion des erreurs, supervision des exécutions Développement de services backend robustes en Python / FastAPI Participation aux choix d'architecture IA : patterns d'agents, handoffs, outils, guardrails Rédaction de code testé, documenté et orienté production Collaboration avec les équipes produit, data et infra 🔎 Profil recherché 5+ ans d'expérience en développement Python backend Expérience concrète avec OpenAI Agents SDK ou frameworks similaires (LangChain, LangGraph, CrewAI) Maîtrise des API REST et des patterns d'intégration SI Solide culture production-ready : tests, monitoring, gestion des erreurs, observabilité À l'aise dans un environnement grand compte en transformation Autonomie, rigueur et capacité à livrer rapidement
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
Architecte Technique DEVOPS – Trade Finance & Supply Chain - Paris
Net technologie
Publiée le
API
Architecture
DevOps
1 an
Paris, France
Au sein du département IT Trade Finance & Supply Chain, nous recherchons un(e) Architecte Technique pour accompagner l’évolution et la transformation d’un SI couvrant l’ensemble de la chaîne Front-to-Back . 🎯 Enjeux : Alignement des stratégies Business & IT Modernisation & standardisation du SI Pilotage des évolutions architecturales (SWIFT releases, refonte comptable, convergence systèmes…) Simplification & amélioration continue 🚀 Missions principales Définir l’architecture applicative, logicielle & technique Contribuer à la production & validation des documents d’architecture Garantir l’alignement avec les standards Groupe & CIB Participer aux chantiers Infra as a Service, DevOps, API Qualifier les besoins techniques & proposer les solutions adaptées Anticiper l’obsolescence technologique & piloter la sécurité Collaborer étroitement avec les équipes IT, Production, Middleware & Architecture
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Concepteur fonctionnel / Concepteur MDD
Codezys
Publiée le
Conception
Java
Oracle
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission La Direction des Systèmes d’Information du Groupe assure la fourniture quotidienne de données et traitements aux utilisateurs, la sécurité et la pérennité des actifs informatiques, ainsi que le développement commercial. Elle conçoit, déploie et maintient les systèmes d'information. Dans le cadre d’un projet stratégique, un Concepteur fonctionnel / Modèle de données est recherché pour intervenir sur la conception du référentiel et du premier lot fonctionnel. Objectifs et livrables Le professionnel devra : Valider les données nécessaires pour alimenter le Référentiel Structure Unique (RSU). Concevoir un modèle de données évolutif, intégrant : Les contraintes des back-offices utilités, La capacité d’adaptation aux futurs besoins, L’intégration des contraintes fonctionnelles et techniques, notamment issues de SIGMA et REFPERS. Activités principales Conception du modèle de données cible du RSU. Rédaction des spécifications pour : Les traitements de chargement de la base, Les contrôles de cohérence entre données issues des back-offices, Le fichier d’écarts recensant les divergences structurelles. Rédaction des spécifications fonctionnelles et techniques pour les équipes de développement. Formalisation des plans de tests pour le premier lot. Participation aux ateliers avec les utilisateurs pour validation. Collaboration avec les équipes de développement des back-offices SIGMA et REFPERS, la maîtrise d’ouvrage nationale, et les Caisses Régionales. Suivi de la conception en liaison avec l'équipe de développement. Enjeux, risques et perspectives du projet Le projet RSU s’inscrit dans une transformation triennale du système d’information, divisée en trois lots. Les enjeux principaux sont : Rationaliser le système d’information du Groupe, Garantir la cohérence des données de structure provenant de plusieurs back-offices, Réduire redondances et écarts de données, Établir une base de référence pérenne et évolutive. Ce premier lot constitue la phase fondamentale, déterminant la qualité et la robustesse des lots suivants. Les facteurs clés de succès sont : Une conception rigoureuse dès le début, La capacité à anticiper les évolutions futures, Une coordination étroite entre maîtrise d’ouvrage, conception et développement. Les lots ultérieurs, plus complexes, offriront des opportunités de missions continues et de développement dans le cadre de demandes complémentaires.
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Mission freelance
Ingénieur Système Active Directory (H/F)
Trust IT
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
Pingcastle
3 mois
580-630 €
Paris, France
Nous recherchons pour un de nos clients un Ingénieur Active Directory qui aura : une bonne connaissance des environnements serveurs active directory ainsi que de ses services et sa structure (Forêt, domaine rôles…) Une très bonne maitrise du modèle Tiering Une bonne maitrise des GPO et de sa mecanique Une bonne maitrise des services ADCS ( ce sont la gestion des certificats autrement appelé aussi PKI) Une connaisance sur les bonnes pratiques de sécurité au niveau active Directory Une connaissance d’outils d’audit de sécurité (Ping Castle, Oradad en l’occurence ils utilisent ce dernier) Avoir déjà fait des actions de remediations AD (Protocoles obsolètes, maitrise des comptes à privilèges, politique des mots de passe user et computer…) Toujours dans le cadre de sécurité avoir déjà mis en place des gmsa ( comptes de services sécurisés) des connaissances sur les politiques de stratégie de mots de passe par defaut ainsi que les outils annexes permettant de les gérer tel que PSO par exemple une bonne connaisance sur le hardening des serveurs AD
Mission freelance
PROXY PRODUCT OWNER DATA
Codezys
Publiée le
ERP
Finance
P2P
6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
Offre d'emploi
Coach DevOps
CONSORT GROUP
Publiée le
DevOps
Kubernetes
Openshift
3 ans
Paris, France
Nous recherchons un COACH DevOps pour intervenir chez l’un de nos clients grand compte. La mission consiste à faire monter en maturité DevOps les squads et à mesurer cette progression : ▪ Accompagnement/coaching DevOps des squads et mesures des capacités DevOps des squads ▪Décliner sur le terrain le modèle et la démarche DevOps ▪ Challenger les solutions et le modèle DevOps existants ▪ Proposer une démarche d’amélioration du modèle en ligne avec l’organisation Agile ▪ Mettre en place les mesures et le pilotage des capacités et de l’accélération apportées par le modèle Principaux livrables attendus : Document (s) pédagogique (s) & de formation (s) Documentations utilisateurs : guides pratiques, aides en ligne, plaquette, etc.
Mission freelance
IT Network Project Manager
STHREE SAS pour HUXLEY
Publiée le
12 mois
France
Contexte de la mission La mission de l'organisation est de permettre aux personnes de vivre une vie meilleure en évoluant d'un rôle de simple payeur de services vers celui de véritable partenaire du quotidien. Dans ce cadre, la fonction Operations a pour vocation de soutenir et d'accompagner l'ensemble des équipes en mettant l'accent sur deux leviers majeurs : l'Innovation et l'Exécution . L'objectif est de : Créer les conditions nécessaires au développement de solutions innovantes répondant aux besoins actuels et futurs des clients. Offrir un environnement permettant aux équipes de concrétiser leurs idées et de tenir la promesse faite aux clients. Renforcer la création de valeur, encourager l'innovation, simplifier les pratiques quotidiennes et contribuer efficacement à la stratégie globale. Le département Network Global Products (NGP) a pour mission de moderniser, standardiser et sécuriser l'infrastructure réseau à travers un portefeuille d'initiatives couvrant : la connectivité utilisateur, la connectivité data center & cloud, les services de sécurité & réseau, l'excellence opérationnelle réseau. Présentation du rôle Au sein du NGP PM Office , le service IT Project Management pilote un ensemble d'initiatives du portefeuille NGP en lien étroit avec les Network Products Services. La mission consiste à assurer la livraison sécurisée de projets réseau variés : initiatives technologiques, programmes de refresh IT, évolutions produits, et projets transverses, en garantissant une maîtrise totale du périmètre, du planning, du budget et de la qualité. Le rôle agit comme facilitateur de delivery pour les Product Lines, en veillant à ce que les standards, la gouvernance et les jalons Network Global Products soient respectés, tout en anticipant les risques et en assurant un reporting clair et régulier.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
8341 résultats
Contrats
1
1
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois