Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 015 résultats.
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance

Mission freelance
Data Steward (H/F)

Nicholson SAS
Publiée le
Confluence
Gouvernance
IA

19 mois
400 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation digitale d'envergure ("Vision 2035") pour un acteur majeur du secteur de l'énergie , nous recherchons un(e) Data Steward expérimenté(e). Vous interviendrez spécifiquement sur la refonte du Système d'Information (SI) documentaire technique et nucléaire (Socle GED). 🎯 Vos Missions Rattaché(e) à l'entité digitale, vous serez le garant de la qualité, de la structure et de la valorisation des données documentaires. Vos responsabilités incluent : Gouvernance & Modélisation : Structuration et maintien du Modèle d’Organisation des Métadonnées ( MOM ). Référentiels : Construction des glossaires métiers documentaires et élaboration des modèles de données. Qualité & Pilotage : Mise en place et suivi des indicateurs de qualité de données (KPIs) et pilotage des plans d'actions correctifs. Traçabilité : Implémentation du lignage de données ( data lineage ) pour assurer la transparence des flux. Migration : Appui méthodologique et opérationnel à la préparation de la migration vers le nouveau socle GED. Innovation Data/IA : Identification et cadrage de cas d’usages avancés (OCR, NLP, GenAI) pour automatiser et valoriser le patrimoine documentaire. Soft Skills : Esprit d'analyse, rigueur méthodologique et capacité à dialoguer avec des interlocuteurs métiers et techniques. 📍 Modalités Pratiques Localisation : Mérignac (33). Rythme : Hybride (2 jours de présence obligatoire par semaine sur site) + déplacements ponctuels. Date de démarrage : 01/06/2026. Durée de la mission : Jusqu'au 31/03/2028 (Visibilité long terme). TJM : 400 €
CDI

Offre d'emploi
Consultant en gouvernance data - SI assurance H/F

VIVERIS
Publiée le

45k-55k €
France
Contexte de la mission : Viveris vous propose un poste de Consultant SI Data, avec une expérience confirmée dans le pilotage de projets transverses sur DataGalaxy ainsi que sur les aspects réglementaires. Dans le cadre d'un projet de gouvernance des données, notre client, acteur du secteur assurantiel, déploie progressivement la solution auprès des différentes équipes métiers et IT. En tant qu'expert DataGalaxy, vous accompagnez les équipes à chaque étape du déploiement et garantissez l'appropriation de la solution ainsi que la mise en oeuvre des premiers cas d'usage. Responsabilités : Piloter le déploiement de DataGalaxy dans le respect de la gouvernance et du planning ; Accompagner et former les équipes métier et IT à un usage avancé de la solution ;Concevoir et implémenter des cas d'usage structurants au sein du Data Catalog ; Paramétrer et optimiser l'intégration de DataGalaxy dans l'écosystème data ; Apporter une expertise en gouvernance des données et diffuser les bonnes pratiques.
Freelance
CDI

Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance

VISIAN
Publiée le
Architecture
Data management

3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Freelance

Mission freelance
Data Analyst

MLMCONSEIL
Publiée le
Apache Spark
Cloudera
Hadoop

1 an
100-460 €
Lille, Hauts-de-France
Profil Data Analyst pour un projet logistique, chargé de réaliser les spécifications et analyses de données. Exploitation et transformation des données avec Talend dans un environnement Big Data. Maîtrise des technologies Hadoop, Spark et Cloudera pour le traitement volumineux de données. Création de tableaux de bord et visualisations avancées avec Power BI pour le suivi opérationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance
CDI

Offre d'emploi
Data Steward

ONSPARK
Publiée le
RGPD

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Steward pour accompagner nos clients grands comptes. Vous interviendrez dans des environnements où la qualité, la traçabilité et la conformité des données sont des enjeux majeurs, en lien avec les équipes Data et métier. Responsabilités Définir et appliquer les règles de gouvernance des données Maintenir le dictionnaire de données et les référentiels Assurer la qualité, la traçabilité et la conformité des données (RGPD) Sensibiliser et accompagner les équipes métier sur les bonnes pratiques Collaborer avec les Data Engineers et Data Architects
Freelance
CDD

Offre d'emploi
Architecte Data conteneurisation H/F

SMARTPOINT
Publiée le
Angular
AWS Cloud
Java

12 mois
70k-95k €
650-730 €
Île-de-France, France
Dans un contexte de transformation digitale et de modernisation des architectures, vous intervenez en tant qu’expert technique et data pour garantir la performance, la conformité et la robustesse des socles techniques . Vous jouez un rôle clé dans la conception d’architectures modernes, notamment autour des environnements conteneurisés et cloud . Vos missions: Garantir la conformité et la performance des socles techniques, avec une expertise sur les architectures conteneurisées et le développement de services innovants Revues et audits de code Préconisations d'architectures (conteneurisation) Développement de PoC et de services avancés Expertise et support aux équipes projet Les livrables: 6 à 8 revues/audits de code par an 6 à 8 études d’architecture par an 3 à 5 PoC / PoT par an Participation à la résolution de 6 à 8 incidents par mois
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance
CDI

Offre d'emploi
Business Data Analyst sur Malakoff (92)

EterniTech
Publiée le
Microsoft Power BI
Qlikview
Tableau de bord

3 mois
Malakoff, Île-de-France
Missions description: The Business Analyst will be responsible for driving the data-related aspects of the PeopleSoft ERP but not only across the organization in different countries. This role involves analyzing business needs, ensuring data quality, and facilitating data integration and governance to support a successful rollout. The analyst will work closely with stakeholders to translate business requirements into technical specifications, ensuring data consistency, security, and compliance throughout the project lifecycle. The Business Analyst will lead the tudy of third-party management (service providers, partners, etc.) in the application landscape. o Country-by-country interviews. o ½ day per interview. ? Workshops with business, provider network, IT, … ? Share with O2C / P2P lead and other counterparts. ? Belgium as pilot country, Spain, . o ½ debriefing. Requested deliverables: -Key Deliverables for a Data-Driven Business Analyst in the PeopleSoft Rollout (France, Belgium, UK, US, Canada, Italy, Spain) 1. Business and Data Requirements Document 2. Process and Data Flow Analysis 3. Data Governance and Quality Plan 4. Functional and Configuration Documentation 5. Data quality improvement and Validation Strategy 6. Post-Implementation Data Monitoring and Continuous Improvement 7. Reporting and Stakeholder Communication Provide regular progress updates on data-related aspects of the study. Present insights on data quality, risks, and opportunities for each country. Ensure transparency and alignment with regional and global stakeholders. Prefered experience: Business analyst oriented Data Required technical skills : - Strong Data modeling skills (Conceptual Data Model design) - Interviewing skills - Ability to summarize the goal and the driver and make you understandable by business users - Ability to ask questions in a simple and understandable way, adapting the wording to the interlocutor - Ability to ask the same question from different angles and point of view or to different participant to cross check - Ability to contain the round of question to balance the interveiw duration to cover all the scope. - Ability to anlayze quickly the scope of knwoledge and skills of the business interviewed person - Ability to ask for additional or alternative business or IT SME and reschedule or adapt the - Analysis skills - Ability to dive into the root concepts and logic behind a serie of use cases exposed by the business - Ability to find the commonalities and the specificities - Strong organization skills to plan the meeting ensure attendence and relevance of the attendees - Ability to optimize the schedule of interview to enable preparation of the meeting and writing of the delivrables - Structuring into rigourous and articulable concepts the verbatim of the business - Expérience on Party Master Data Management Optionals technical skills - Proficiency in BI and reporting tools: Power BI, Tableau, QlikView, to create dashboards and visualize data quality, compliance, and performance metrics. Other skills or abilities expected: - Ability to relate technical concepts to system applications and user needs. - Problem solving skills. - Ability to work under pressure. - Ability to work with direct and remote teams. - Capacity to adapt quickly to changes and learn in all circumstances. - Advanced Listening & Communicating skills. - Team player and able to work collaboratively with others and leverage their skills. - Innovative thinking. Interpersonal skills: - Strong leadership and communication skills. Autonomy. - Involved with other teams supports to obtain inputs for the correct development of his/her job. - Ability to manage stakeholders and business demands. - Ability to be interface between technical and business teams by translation of exchanges. Background and experiences: - Minimum of 5years’ experience in data driven environnements, ideally in major and multi-cultural organizations. - Fluent English (speaking and writing as english will be the work language) and French are a plus.
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
CDI

Offre d'emploi
Senior Data Scientist / ML Engineer (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Elasticsearch
Git

53k-59k €
Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Analyst

ONSPARK
Publiée le
Microsoft Power BI
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Analyst pour accompagner nos clients grands comptes. Responsabilités Extraire, nettoyer et analyser des données issues de sources variées Produire des rapports et tableaux de bord à destination des équipes métier Identifier des tendances et formuler des recommandations Collaborer avec les Data Engineers pour l'accès aux données Contribuer à l'amélioration de la qualité des données
Freelance

Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING

Signe +
Publiée le
Java

12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM

3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F

ADSearch
Publiée le
Architecture
Data Mesh
Production

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
1015 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous