Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 684 résultats.
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
CDI

Offre d'emploi
Consultant Data Analyst Direction Financière F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Oracle Database
Python
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Analyst (Diversification) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Charenton-le-Pont, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist / Actuariat - CDI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data engineer analytics H/F - Tarare (69) ou St Paul Trois Châteaux (26)

LeHibou
Publiée le
Microsoft Fabric
Snowflake

6 mois
450-550 €
Tarare, Auvergne-Rhône-Alpes
Notre client dans le secteur Industrie recherche un Data engineer analytics H/F Descriptif de la mission: Dans le cadre des objectifs de la Direction de la Transformation Digitale et de la Direction des Systèmes d’Information, le Data Engineer Analytics a pour mission de concevoir, développer, industrialiser et maintenir les solutions data du SI, basées principalement sur Microsoft Fabric et Azure Integration Services . Il contribue à garantir la qualité , la fiabilité , la performance , la sécurité et la maîtrise des coûts des traitements et plateformes analytiques. Missions : Développement & Maintenance de la plateforme analytique · Concevoir, développer et maintenir les flux d’intégration de données entre les systèmes internes et externes. · Concevoir, développer et maintenir les dashboards groupes. · Accompagner les métiers sur les bonnes pratiques et l’utilisation de nos outils de Dataviz et les données mises à disposition. · Assurer la disponibilité, la performance et la sécurité des services analytiques. · Participer à la définition et à la mise en œuvre des standards de développement et d’intégration. · Garantir la qualité des développements en respectant les bonnes pratiques Analytics, et les normes de sécurité. Support aux projets & coordination · Intervenir comme référent technique auprès des projets nécessitant des ressources analytiques. · Accompagner les équipes dans la conception, l’implémentation et l’industrialisation des flux. · Prendre en charge le maintien en condition opérationnel sur le périmètre analytique. Amélioration continue & innovation · Proposer des optimisations pour renforcer la robustesse, la performance et la maintenabilité des solutions. · Contribuer à la veille technologique sur les outils et services analytiques (Microsoft Fabric, ingestion, qualité, gouvernance…). · Participer à la démarche Green IT en optimisant les ressources cloud et en appliquant les bonnes pratiques FinOps. Documentation & qualité · Documenter les flux, pipelines, architectures, dashboard et bonnes pratiques techniques. · Contribuer à la mise à jour du référentiel documentaire. · Participer aux audits internes pour garantir la qualité, la sécurité et la conformité des développements. Indicateurs de performance · Qualité et fiabilité des pipelines (taux de succès, temps de traitement, disponibilité). · Respect des délais et de la charge prévue dans les projets. · Qualité des livrables : conformité, maintenabilité, documentation. · Taux d’incidents et rapidité de résolution. · Satisfaction des équipes projets et métiers.
Freelance
CDI

Offre d'emploi
Expert Technique Big Data

VISIAN
Publiée le
IBM DataStage
Web Application Firewall (WAF)

1 an
Île-de-France, France
Contexte Dans un contexte de migration d’une plateforme des technologies big data vers des technologies classiques, nous recherchons un expert technique autonome et chevronné afin d’assurer cette migration from scratch. Missions Commander les serveurs depuis les portails cloud internes : les customiser afin de les rendre opérationnels, c’est-à-dire conformes à la politique d’exploitation et de sécurité. Commander des bases de données On-premise et/ou Cloud en fonction des besoins : les installer, configurer et les administrer. Installation et configuration de l’ETL DataStage et ses satellites dans une infrastructure 3 tiers haute disponibilité : Data de données actif/passif avec réplication et synchronisation des données. Installation et configuration du WAS actif/passif. Installation et configuration du core de l’ETL : actif/passif tout en garantissant la résilience. Garantir le parallélisme et le cloisonnement des environnements dans une même plateforme. Installation et gestion des middlewares : CFT/MQseries (Actif/actif) : haute disponibilité. Autosys : gestion et développement des JIL : ordonnanceur applicatif et scheduler. Monitoring technique, BAM, outils de reporting/data visualisation, etc. Installation de l’application et support aux équipes projets. Veiller à la bonne traçabilité des services techniques utilisés au niveau infrastructure et applicative. Mise en place des procédures BAU : reporting, documents d’exploitations et d’installation. Formation des équipes de support, niveau 2 et 3.
CDI

Offre d'emploi
Commercial Export BtoB - Marché Data Capture F/H - Commercial (H/F)

█ █ █ █ █ █ █
Publiée le

Annecy, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online (Fonctionnel)- intranet

RIDCHA DATA
Publiée le
Business Analyst
Intranet
SharePoint Online

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : ASAP ⏳ Durée : Mission longue 🌍 Contexte international 🚀 Contexte de la mission Dans le cadre de la refonte d’un intranet global sous SharePoint Online (Microsoft 365) , nous recherchons un Business Analyst fonctionnel pour accompagner les équipes métiers dans la définition et la mise en place d’une plateforme moderne et collaborative. 👉 L’objectif : proposer une expérience utilisateur fluide, homogène et adaptée à un environnement international. 🎯 Votre rôle En tant que Business Analyst fonctionnel , vous êtes l’interface clé entre les métiers et les équipes IT, avec une forte orientation recueil de besoin et conception fonctionnelle (pas de technique / pas de développement). 🧩 Vos missions principales 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les différentes parties prenantes Formaliser les besoins (user stories, use cases, parcours utilisateurs) Identifier les axes d’amélioration des processus existants 📝 Conception fonctionnelle Rédiger les spécifications fonctionnelles Structurer le contenu : navigation, taxonomie, métadonnées Contribuer à la définition de l’expérience utilisateur (UX) Construire et gérer le backlog fonctionnel 🤝 Coordination & accompagnement Faire le lien entre métiers et équipes techniques Participer aux phases de recette (tests fonctionnels, UAT) Accompagner le changement (supports, communication, formation) 🌍 Environnement international Interagir avec des équipes internationales Assurer la cohérence entre besoins locaux et standards globaux 🛠️ Environnement fonctionnel SharePoint Online (Microsoft 365) Outils collaboratifs (Teams, etc.) Méthodologie Agile / Scrum
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Freelance

Mission freelance
Data Scientist Senior – Recherche Opérationnelle & E-commerce

BEEZEN
Publiée le
Google Cloud Platform (GCP)

6 mois
400-550 €
Île-de-France, France
● Technologies Langages : Python, Java, SQL. Maths & RO : Métaheuristiques, Programmation linéaire, Optimisation combinatoire, Inférence causale. Outils RO : OR-Tools, ou solveurs commerciaux. Cloud & Data : GCP, BigQuery, Docker, Kubernetes, Airfl ow (Cloud Composer). ● Maîtrise impérative de l’environnement GCP. ● Formation : Bac+5 (Master ou École d'Ingénieur) spécialisé en Recherche Opérationnelle, Mathématiques Décisionnelles ou Supply Chain Analytics. ● Expérience : au moins 7 ans en Data Science
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Data Engineer

DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks

1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Freelance
CDI

Offre d'emploi
Développeur Python - Data & Automation

VISIAN
Publiée le
Python

1 an
Paris, France
Contexte Développeur en charge de la gestion des scripts internes, de l’intégration de LLM et des tâches d’automatisation sur les flux de données et les processus, ainsi que des interactions API avec des sources externes. Mise en place de contrôles et de rapports sur la qualité des données. Contribution au développement des outils internes de l’équipe, tels que les processus de communication (mailing de masse), site web, planification d’équipe, etc. Objectif : Un développeur senior avec une solide compréhension des projets pilotés par les données, de l’automatisation, des référentiels IT et des exigences de gestion de services, pour travailler sur le développement interne de pipelines d’intégration et d’interfaces dans l’écosystème d’une grande banque d’investissement. Périmètre : Global, rôle exigeant une collaboration avec les clients internes de la banque d’investissement à l’échelle mondiale, nécessitant un anglais professionnel.
Freelance

Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F

Comet
Publiée le
Agent IA
Python
RAG

12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
CDI

Offre d'emploi
CHEF DE PROJET SI H/F Onboarding, Customer Success Digital (H/F)E comme

SCC France SAS
Publiée le

60k-70k €
Nanterre, Île-de-France
Mission principale · Le Chef de Projet Onboarding & Customer Success Digital pilote les projets d'onboarding clients sur les plateformes digitales SCC et contribue activement au succès des clients, de la phase de déploiement jusqu'à l'adoption des solutions. · Il garantit la qualité du delivery, le respect des engagements et la satisfaction client, en coordination avec les équipes internes et sous le cadre méthodologique défini. Responsabilités principales 1. Avant-vente & cadrage ·Contribuer aux réponses aux appels d'offres sur le périmètre digital ·Participer à la formalisation des parcours d'onboarding et d'usage ·Alerter sur les risques de faisabilité, délais ou dépendances 2. Pilotage du portefeuille clients digitaux ·Piloter un portefeuille de clients B2B ·Suivre le cycle de vie client digital : onboarding, usage, évolution ·Identifier les risques d'insatisfaction ou de non-adoption ·Être un point de contact clé côté SCC sur les sujets digitaux 3. Onboarding client - exécution opérationnelle ·Piloter les parcours d'onboarding clients ·Coordonner les prérequis métiers, data, outils et IT ·Garantir le respect des délais, du périmètre et de la qualité ·Escalader les arbitrages nécessaires 4. Customer Success & adoption ·Suivre l'adoption des plateformes par les clients ·Mettre en oeuvre et suivre les KPI d'usage et de satisfaction · Contribuer aux actions d'accompagnement, de formation et de communication · Identifier et remonter les irritants clients et demandes d'évolution 5. Amélioration continue & capitalisation ·Contribuer à la capitalisation des projets et retours d'expérience · Participer à l'amélioration continue des outils, méthodes et parcours · Appliquer et enrichir les standards définis au niveau du pôle
Freelance
CDI

Offre d'emploi
Consultant(e) DATA OFFICER SENIOR (DATA GOVERNANCE / DATA MANAGEMENT / RGPD)

CELAD
Publiée le
Data governance
IA
RGPD

1 an
70k-90k €
600-700 €
Paris, France
1. CONTEXTE Au sein du Data Office rattaché à la Direction Data , vous intervenez dans un environnement structuré en tribus et squads sur des enjeux stratégiques liés à la gouvernance, la qualité et la protection des données . L’objectif est d’ industrialiser la gestion de la donnée dans la fabrication des cas d’usage (data, analytics, IA), tout en garantissant leur conformité réglementaire et leur performance business. Vous travaillez en étroite collaboration avec le Référent Data, les équipes métiers, IT, juridiques (DPO) ainsi que les différentes squads contributrices. 2. OBJECTIFS DU POSTE Structurer et déployer le cadre de gouvernance data à l’échelle de l’entreprise Garantir la qualité, la traçabilité et la protection des données critiques Accompagner les squads dans la mise en conformité RGPD et IA Act Assurer une vision transverse et pilotée des enjeux data (KPI, risques, qualité) Contribuer à la réussite des initiatives stratégiques data (Data Platform, projets IA, etc.) 3. MISSIONS PRINCIPALES3.1 Cadrage des initiatives data Accompagner les projets métiers et IT dans la phase de cadrage Identifier les données critiques (business / réglementaires) Définir les exigences en matière de : qualité des données gouvernance protection (RGPD, IA) 3.2 Gouvernance & Data Management Déployer et faire appliquer le framework de Data Governance Structurer les éléments suivants : Data catalog (Nectarine / AB Initio) dictionnaire de données glossaire métier data lineage Définir et suivre les rôles : Data Owners Data Stewards Garantir la cohérence du modèle data entre les différentes squads 3.3 Qualité des données Définir les règles de Data Quality (complétude, cohérence, unicité, etc.) Mettre en place les indicateurs de suivi Piloter les plans de remédiation avec les équipes IT et métiers Évaluer l’impact de la qualité des données sur la performance business 3.4 Data Protection & conformité Accompagner les équipes dans les analyses de risques RGPD (DPIA) Garantir le respect des principes de protection des données (privacy by design) Contribuer aux sujets liés à l’ IA Act Collaborer avec les équipes juridiques / DPO 3.5 Pilotage transverse & hypervision Mettre en place et suivre des KPI de gouvernance data Assurer une vision consolidée : des risques de la qualité de l’avancement des travaux Préparer et présenter les éléments dans les instances : comités de suivi comités data COMEX Produits 3.6 Accompagnement des équipes Former et accompagner les équipes : Data Stewards Data Designers équipes produit Diffuser les bonnes pratiques de gouvernance data Faciliter l’adoption des outils et processus 3.7 Contribution aux initiatives stratégiques Participation aux projets structurants (Data Platform, HALO…) Contribution aux ARM sur les volets data Support à la transformation data globale de l’entreprise
684 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous