L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 123 résultats.
Mission freelance
Développeur SAP PS Fullstack (DevOps / UI5 / RAP) - Brussels - 12 mois
Holborn
Publiée le
ABAP
Javascript
SAP ABAP
12 mois
400-550 £GB
Bruxelles, Bruxelles-Capitale, Belgique
Développeur SAP PS Fullstack (DevOps / UI5 / RAP) - Brussels - 12 mois Un de nos importants clients recherche un Développeur SAP PS Fullstack (DevOps / UI5 / RAP) pour une mission de 12 mois sur Brussels. 2 jours en présentiel et 3 remote. Dans le cadre de la transformation de notre environnement SAP vers un modèle orienté produit et DevOps, nous recherchons un Développeur SAP PS Fullstack expérimenté pour contribuer au développement et à la maintenance d’un produit clé. Vos missions Vous interviendrez au sein d’une équipe technique et fonctionnelle sur un produit SAP stratégique. Responsabilités principales : Assurer la maintenance et l’évolution du module SAP PS Développer de nouvelles fonctionnalités selon les besoins métiers Collaborer avec les Functional Analysts et Product Owner Intervenir sur le développement backend (ABAP, RAP) et frontend (SAP UI5 / Fiori) Documenter les développements réalisés Participer à une approche DevOps (build & run) Votre profil Solide expertise du module SAP PS (Project System) Expérience confirmée en ABAP et UI5 / JavaScript Maîtrise de RAP (RESTful Application Programming) Bonne maîtrise du développement frontend SAP UI5 / Fiori À l’aise avec les outils BAS, ADT, SE80 Compétences complémentaires Bonne connaissance de Git et Jira Excellentes capacités d’analyse Bon niveau en documentation technique Bonnes compétences en communication Esprit d’équipe Langues: Anglais courant Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
tech lead java angular
Freelance.com
Publiée le
Angular
Apache Kafka
Apache Maven
1 an
510-590 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Agile organisée en train SAFe, nous recherchons un Tech Lead Java JEE confirmé pour intervenir sur des applications critiques liées à la gestion et à la facturation. Intégré à une équipe dynamique pilotée par un Product Owner et un Scrum Master, vous jouerez un rôle central dans la conception, la réalisation et l’amélioration continue des solutions. Vous serez le référent technique de l’équipe, garant de la qualité, de la sécurité et de la cohérence des développements. À ce titre, vous : Pilotez les orientations techniques et veillez au respect des standards d’architecture Assurez la mise en œuvre des exigences non fonctionnelles (performance, sécurité, résilience) Contribuez activement aux développements (correctifs, évolutions, enablers techniques) Supervisez les pipelines CI/CD et l’automatisation des tests Participez aux rituels Agile et aux échanges inter-équipes Portez les pratiques DevSecOps et améliorez en continu les processus Garantissez la qualité des livrables et le suivi en production Intervenez sur les problématiques de sécurité et de vulnérabilités Accompagnez l’équipe dans la montée en compétences techniques
Mission freelance
Data Analyst (H/F) - Belgique
Mindquest
Publiée le
Python
SQL
3 mois
340-500 €
Gosselies, Hainaut, Belgique
Dans le cadre de ses activités, notre client recherche un(e) Data Analyst Transverse pour rejoindre l’équipe Reporting Transversal au sein de la Direction Stratégie & Transformation. Vous interviendrez sur l’analyse et la valorisation des données afin de soutenir la prise de décision stratégique et améliorer les performances globales de l’entreprise. Mission 1. Aide à la décision stratégique * Développer et implémenter des modèles et algorithmes de traitement de données * Produire des analyses avancées pour orienter les décisions stratégiques * Collaborer avec les métiers pour identifier les besoins data et proposer des solutions adaptées 2. Valorisation des données * Analyser les tendances et performances opérationnelles * Construire des scénarios prospectifs * Concevoir des dashboards et visualisations interactives (Power BI) 3. Contribution aux projets transverses * Participer aux projets de transformation de l’entreprise * Assurer la communication avec les différentes équipes * Contribuer aux initiatives de transformation digitale
Offre d'emploi
Data Analyst Confirmé (H/F) – Power BI / Snowflake
CELAD
Publiée le
Microsoft Power BI
Snowflake
9 mois
Massy, Île-de-France
Dans le cadre d’une transformation BI, notre client souhaite structurer et fiabiliser l’ensemble de ses données afin d’améliorer ses outils de pilotage. Aujourd’hui, les enjeux sont clairs : harmoniser des données issues de multiples sources améliorer leur qualité et leur fiabilité automatiser les reportings existants mettre en place des dashboards performants et exploitables Votre mission Intégré(e) à une squad Data déjà en place, vous interviendrez sur des sujets à fort impact : Concevoir et structurer des datamarts à partir de données complexes Migrer les datasets et dataflows vers des modèles plus robustes Maintenir des dashboards sous Power BI Industrialiser et automatiser les reportings existants Améliorer la qualité et la cohérence des données (nettoyage, normalisation) Environnement technique SQL / Snowflake Power BI (dataviz + modélisation) CRM (type Salesforce)
Mission freelance
Développeur Fullstack IA
Groupe Aptenia
Publiée le
FastAPI
LangGraph
Python
3 mois
Paris, France
📍 Localisation : France (à préciser) 📅 Démarrage : ASAP ⏳ Durée : 3 mois (avec perspective CDI) 🔍 Nous recherchons un Développeur Fullstack pour intervenir sur des projets modernes mêlant backend Python et frontend React. 🎯 Vos missions principales ✅ Développer des APIs backend en Python ✅ Concevoir des interfaces dynamiques en React / TypeScript ✅ Participer à la structuration des projets (architecture, bonnes pratiques) ✅ Collaborer avec les équipes produit et techniques Mission de 3 mois en pré-embauche
Mission freelance
Data Engineer Devops (4-7ans) - Nantes - H/F
Argain Consulting Innovation
Publiée le
Apache Hive
Artifactory
Gitlab
12 mois
400 €
Nantes, Pays de la Loire
Nous avons besoin d’un renfort de profil développeur pour notre client grand compte dans le secteur bancaire, dont les missions sont les suivantes : Tâches : - Développer des User story relatives à l’ingestion /transformation de données avec des technos de type ETL sur une plateforme Cloudera customisée ou des procédures stockées - Mettre en œuvre les tests unitaires, participer à la recette fonctionnelle avec les Business analyst - Déployer le produit dans différents environnements - Produire la documentation associée à ces développements - Participer à l’affinage et chiffrage des solutions - Garantir et assurer le fonctionnement des produits en production (suivi du run) - Participer aux cérémonies et démarche agile Scrum Attendus : Prise en charge des récits de développement du backlog et des travaux associés (conception /DevTU/Recette/Déploiement ) du périmètre et de la trajectoire des produits de la squad Environnement techniques : Indispensables : ETL Jobfacto / Spark / HIVE / Oozie … Indispensables : Devops : Gitlab, Artifactroy
Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision
Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker
6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Offre d'emploi
Développeur Typescript
VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Offre d'emploi
Product Manager IA / GenAI
IA Soft
Publiée le
GenAI
Large Language Model (LLM)
RAG
40k-45k €
Île-de-France, France
Dans le cadre du développement de nos initiatives autour de l’intelligence artificielle, nous recherchons un(e) Product Manager IA / GenAI capable d’identifier, structurer et piloter des opportunités produits à fort impact, en lien étroit avec les équipes métiers, data et tech. Vous jouerez un rôle central dans la définition et la mise en œuvre de solutions basées sur les LLM , les architectures RAG et plus largement les usages de l’ IA générative , avec une forte orientation valeur métier et impact opérationnel. Au sein d’un environnement transverse et en forte évolution, vous serez amené(e) à : Identifier et cadrer les opportunités IA en collaboration directe avec les équipes métiers, en partant des problématiques terrain, des irritants et des enjeux business Mener des phases de product discovery pour faire émerger les cas d’usage les plus pertinents, challenger les besoins, évaluer la faisabilité et prioriser les initiatives à forte valeur Piloter des projets IA de bout en bout , notamment autour des LLM , des architectures RAG et de solutions d’IA générative Traduire les besoins métiers en solutions concrètes , activables et alignées avec les contraintes produit, techniques et organisationnelles Définir, structurer et prioriser la roadmap produit IA , en arbitrant entre impact, effort, maturité des cas d’usage et valeur pour les utilisateurs Travailler en étroite collaboration avec les équipes data, tech, innovation et métiers afin d’assurer la cohérence, l’adoption et la réussite des projets Contribuer à la diffusion d’une culture produit et IA au sein de l’organisation, en facilitant la compréhension des enjeux, des possibilités et des limites des technologies déployées
Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Offre d'emploi
Développeur Python (H/F)
Aleysia
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
Consultant DataOps / Administrateur Hadoop
Craftman data
Publiée le
Ansible
CI/CD
Docker
La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Mission freelance
Développeur Data ETL
Lùkla
Publiée le
ETL (Extract-transform-load)
2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)
HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL
12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4123 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois