L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 833 résultats.
Mission freelance
Business analyst data / BI
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Mission freelance
Program Manager
Publiée le
Big Data
Cloud
Data management
1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Offre d'emploi
Architecte Data spécialisé Databricks (F/H)
Publiée le
80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Offre d'emploi
Développeur Data / BI – Datastage & Power BI (H/F)
Publiée le
IBM DataStage
Microsoft SQL Server
PostgreSQL
55k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👍 Si vous souhaitez mettre vos compétences au service d’un projet stratégique orienté Data & Décisionnel, nous avons LA mission pour vous ! Nous recherchons un(e) Développeur Data / BI (H/F) maîtrisant Datastage, SQL et Power BI pour intervenir sur un projet à forte valeur ajoutée autour de la construction et de l’optimisation du système décisionnel de notre client 🚀 Vous rejoindrez une équipe experte du SI Décisionnel et participerez à des travaux d’alimentation, de transformation et de restitution des données au sein d’un environnement technique exigeant. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Développement & Alimentation de données : 🔸 Concevoir et développer les programmes d’alimentation du Datawarehouse et des Datamarts (ODS, DWH) ; 🔸 Réaliser des traitements complexes via Datastage et le langage SQL ; 🔸 Optimiser les requêtes SQL pour garantir la performance des chaînes de traitements ; Restitution & Reporting : 🔸 Développer des datasets et dataflows sous Power BI ; 🔸 Concevoir et produire des rapports et tableaux de bord utilisateurs ; Qualité, Maintenance & Exploitation : 🔸 Réaliser les tests unitaires et rédiger les plans/fiches de tests ; 🔸 Rédiger le dossier d’exploitation destiné à l’équipe de Production ; 🔸 Prendre en charge les anomalies et évolutions (Run) en lien avec les équipes internes ; 🔸 Respecter les normes et bonnes pratiques en vigueur au sein du SI Décisionnel ; 🔸 Assurer un reporting d’avancement régulier auprès du responsable de domaine.
Mission freelance
INGENIEUR DATA POWER BI H/F
Publiée le
Microsoft Power BI
Workday
1 an
450-550 €
Vélizy-Villacoublay, Île-de-France
Contexte business / Business context : Accompagner les Business Process Owners en leur fournissant des dashboards et des analyses pertinentes sur les données issues : Principalement de Cornerstone onDemand pour la première personne qui travaillera sur les données formation Sur les données issues de Workday pour la seconde personne qui travaillera sur les données Talent & Performance Périmètre / Scope : (Détailler le périmètre fonctionnel & géographique / Detail functional & geographic scope) Worldwide Objectifs du projet / Goals of project Au sein du HR Data Office, vous accompagnerez les Business Process Owners de la formation et du Talent & Performance dans la définition, la création de tableaux de bords PowerBI et la mise en avant des éléments pertinents pour servir ces deux fonctions.
Mission freelance
Data Analyst - Power BI
Publiée le
Data analysis
Data science
Data visualisation
6 mois
400-500 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons un(e) Data Analyst passionné(e) par l’analyse de données et souhaitant évoluer dans un environnement de production dynamique. Vous intégrerez une équipe en charge de la supervision d’un outil de production et serez responsable de la création et du suivi de reporting sur l’activité. Missions principales : Analyser les données issues de l’outil de production pour fournir des reporting réguliers. Identifier et suivre les incidents de production, analyser leur origine et proposer des actions correctives. Mettre en place des actions d’amélioration des processus basées sur les analyses réalisées. Collaborer avec les équipes métiers et techniques pour optimiser le fonctionnement des outils et des processus. Profil recherché : Connaissance de Power BI et capacité à créer des rapports et dashboards clairs et efficaces. Goût pour l’analyse et l’interprétation des données. Capacité à comprendre des processus de production et à proposer des améliorations. Rigueur, curiosité et sens de l’organisation. Junior accepté, envie d’apprendre et de monter en compétence. Conditions : Poste sur site dans un premier temps pour faciliter la montée en compétence. Possibilité de télétravail partiel : 3 jours par semaine après la période initiale.
Offre d'emploi
Data Analyst
Publiée le
Data quality
Gouvernance
Master Data Management (MDM)
3 ans
45k-50k €
420-500 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
En tant que Data Analyst, vous connectez les processus métiers aux besoins data. Vous contribuez également à la stratégie Master Data et transactionnelle en analysant les processus et en garantissant l’intégration des données. Votre rôle Analyse métier et conception de Data Use Cases Animer des groupes de travail pour accompagner les équipes métier dans la création des Service Blueprints, l’identification des principaux Data Use Cases et la compréhension des dépendances Consolider le Data Use Case à partir du processus métier, en l’alignant avec les équipes projets, et le gérer dans l’outil de Data Governance Réaliser l’analyse des écarts afin d’identifier les systèmes IT impactés et sécuriser la bonne définition des fonctionnalités nécessaires Gouvernance des données et structuration Définir, en collaboration avec le Data Steward, les règles de gestion et le cycle de vie des données transactionnelles et référentielles Accompagner le Data Steward dans l’intégration des données référentielles au sein du Master Data Management System Contribuer à la mise à jour du Data Catalog en fournissant des définitions de données claires Intégration, qualité et déploiement des données Accompagner les Business Units dans la mise en place des flux de données transactionnelles et dans l’utilisation des données référentielles via les Data Use Cases Participer aux tests d’intégration, systèmes et de recette; gérer la stratégie de migration, de bascule et les chargements de données Analyser les données existantes dans les systèmes BI et DataHub pour valider la cohérence des solutions et proposer des améliorations proactives de la qualité des données
Mission freelance
Expert Azure Data Factory F/H - 3 mois
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Mission freelance
DATA ANALYST
Publiée le
Azure
Cloud
ETL (Extract-transform-load)
1 an
Strasbourg, Grand Est
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour rejoindre un projet stratégique au sein d’un grand groupe industriel international. Cette mission, de longue durée, vise à renforcer la qualité des données à l’échelle du groupe et à accompagner les équipes métiers dans la mise en place de processus robustes. Votre rôle : Dans le cadre de cette prestation, vous serez responsable de la création et du maintien des reportings de qualité des données au niveau global. Vous interviendrez en étroite collaboration avec les différentes fonctions métiers afin de collecter les problématiques liées à la qualité des données , puis de traduire leurs besoins en spécifications techniques claires et exploitables . Vous jouerez également un rôle clé dans l’accompagnement des équipes à travers les différentes étapes de la méthodologie qualité des données, incluant la découverte des données , la définition des règles , leur exécution et le monitoring continu .
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Mission freelance
Architecte SI applicatif et intégration, Data Flow, API, MFT - Paris - Vorstone
Publiée le
API
API Platform
Enterprise Application Integration (EAI)
2 ans
600-800 €
Paris, France
Télétravail partiel
Architecte SI applicatif et intégration, Data Flow, API, MFT - Architecture SI et gouvernance applicative SI Vorstone recherche un Consultant Senior en Architecture et Intégration IT pour un de ses clients, un groupe international basé à Paris. L' Architecte d’entreprise applicatif et intégration , Data Flow, API, MFT senior sera responsable de toute l’architecture IT y compris data exchange/ API platform management, au sein du paysage IT du groupe. Ce rôle veille à l’alignement des systèmes informatiques avec les objectifs métier, soutient le développement et l’intégration de nouvelles technologies, et maintient l’efficacité opérationnelle des services IT. L’Architecte SI applicatif et intégration, Data Flow, API, MFT sera rattaché au CIO (Directeur des Systèmes d’Information) et joue un rôle clé dans la définition de la stratégie et roadmap IT du groupe. L'objectif est de faire évoluer, rationnaliser et homogénéiser tout le paysage applicatif pour tous les pays suite à de nombreux rachats/Carve-in. 🧩 Responsabilités principales Architecture IT Développer et maintenir l’architecture d’entreprise IT, en veillant à ce qu’elle réponde aux besoins actuels et futurs du business. Définir et mettre en œuvre les standards, guidelines, and best practices architecturales. Collaborer avec les métiers et différentes parties prenantes métier pour identifier et prioriser les améliorations architecturales. Piloter la conception (design) et l’intégration de nouveaux systèmes et technologies, en garantissant une interopérabilité fluide. Superviser l’évaluation et la sélection de solutions technologiques alignées avec les objectifs stratégiques de l’entreprise. Gestion de la plateforme d’API (Mulesoft) & & Opcon Managed File Transfer (MFT) Gérer la plateforme d’API Mulesoft et l’architecture OpCon MFT , en veillant à leur utilisation efficace pour l’intégration des différents systèmes et services IT. Collaborer avec les équipes de développement pour garantir que les APIs et les flux MFT sont conçus et mis en œuvre selon les meilleures pratiques. Identifier les opportunités d’optimisation et d’amélioration de la plateforme d’API et de la solution MFT. Reporting et analyse Préparer et présenter des rapports réguliers sur l’architecture IT, incluant la performance des plateformes API et MFT, à la direction. Analyser les indicateurs clés et les tendances pour identifier les axes d’amélioration et éclairer la prise de décision stratégique.
Mission freelance
Consultant RGPD (H/F)
Publiée le
Data management
RGPD
6 mois
400-500 €
Paris, France
Télétravail partiel
Contexte projet / client : Mission de renfort dans le cadre d’un remplacement au sein d’une organisation gérant des projets de conformité et de protection des données, avec un environnement réglementaire exigeant. Missions principales Assurer le suivi et la mise en conformité des processus liés à la gestion et à la protection des données. Participer aux analyses d’impact, évaluations de risques et contrôles internes associés. Contribuer à la rédaction et à la mise à jour de la documentation réglementaire. Collaborer avec les équipes internes pour garantir l’application des bonnes pratiques. Accompagner la continuité des activités pendant la phase de remplacement.
Offre d'emploi
Responsable offre bureautique
Publiée le
ITIL
Office 365
Power Platform
12 mois
Saint-Denis, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne dans le 93 un Responsable Office bureautique. 1.1 Objectifs Au sein de la Direction Services Numériques aux Utilisateurs, piloté par le responsable des offres Office, cette prestation consiste à assister au quotidien le responsable d’offre Office dans la gouvernance, le pilotage et la maintenance de l’offre Office Bureautique. Elle s’appuie sur le pôle Veille pour tenir à jour une feuille de route des évolutions fonctionnelles et techniques à venir. Elle analyse ces dernières pour les proposer aux utilisateurs en fonction de leur intérêt métier tout en s’assurant de leurs conformités avec la PGSSI (Politique Générale de Sécurité des Systèmes d'Information Groupe). Elle coordonne leurs mises en œuvre en s’appuyant sur la MOE Poste de Travail pour la gestion des configurations techniques, les déploiements sur les postes de travail Windows et la MCO et sur le pôle Adoption pour l’accompagnement des utilisateurs et des métiers. Elle répond aux questions fonctionnelles et techniques posées par les utilisateurs et aux escalades du support de niveau 2 O365. Elle valorise ces connaissances en rédigeant des consignes pour les supports et en communiquant au travers de contenus rédigés par le pôle Adoption sur les médias mis à disposition (portail O365 et communautés Viva Engage). Le cas échéant, elle escalade les incidents fonctionnels à Microsoft. Les incidents techniques (déploiement et automatisation des process) sont quant à eux escaladés à la MOE Poste de Travail. Elle suit le provisionning des licences M365 pour les différents profils (usages mobilité et bureautiques) et rationalise leur utilisation dans le cadre du programme Pilot’R (libération des licences dans les cas de sans ou peu d’usage). Elle optimise et simplifie les process de demande de service avec de l’automatisation et le portail ITSM afin d’améliorer l’expérience utilisateur. Elle élabore, met à disposition et maintient des tableaux de bord pour suivre l’activité du service et simplifier les process de facturation internes. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Data Platform Enablement Engineer
Publiée le
AWS Cloud
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Platform Enablement Engineer" pour un client dans le secteur Bancaire Description 🏢 Le Contexte : La Tech au service de la Recherche Votre mission est au cœur de notre réacteur technologique. Vous ne construisez pas seulement des outils ; vous donnez le pouvoir à notre communauté de plus de 50 Data Engineers et Data Scientists. En tant que trait d’union entre les équipes "Platform" et les équipes "Métier", vous garantissez que notre plateforme Data est non seulement adoptée, mais qu'elle évolue selon les besoins réels du terrain. 🎯 Vos Missions : Support, Évangélisation et Transmission Votre rôle est pivot : vous êtes à la fois un expert technique "hands-on" et un ambassadeur de la culture Data. 1. Support Technique & Tooling (Expertise Opérationnelle) : Accompagner quotidiennement les Data Engineers/Scientists sur leurs défis techniques complexes. Identifier et gérer la dette technique par des plans d’actions concrets. Développer l'outillage nécessaire pour faciliter la vie des utilisateurs (automatisation, agents IA, frameworks de tests). Collaborer avec les équipes d'infrastructure pour résoudre les incidents de pipelines et améliorer l'expérience développeur (DevEx). 2. Évangélisation & Animation de Communauté : Promouvoir l’adoption de la plateforme par l'exemple et l'usage quotidien. Partager les tendances du marché et les nouveaux outils pertinents auprès des équipes internes. Animer une Communauté de Pratique : organiser des webinaires, des ateliers et des retours d'expérience. 3. Montée en Compétences (Upskilling) : Évaluer le niveau des équipes et concevoir des parcours de formation (exercices, cas réels). Créer du contenu technique de haute qualité : tutoriels, documentation, projets modèles et articles de blog interne. 4. Feedback Loop & Stratégie Produit : Recueillir les retours des utilisateurs pour influencer la roadmap de la Platform Engineering . Être l'avocat des Data Scientists et Engineers au sein de l'organisation pour s'assurer que leurs besoins sont compris et adressés.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Transfert d'activité - cession du fond de commerce
- Mise à jour info-retraite
2833 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois