L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 551 résultats.
Offre d'emploi
Data engineer appétence machine learning (H/F)
Publiée le
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).
Offre d'emploi
🚀 Team Leader – Tribu Prévoyance (Usine Logicielle / Direction Delivery Produit)
Publiée le
Gestion de projet
3 ans
22k-70k €
100-600 €
Chartres, Centre-Val de Loire
Télétravail partiel
Au sein de la Direction Delivery Produit , et plus précisément de l’Usine Logicielle , vous prenez en charge le pilotage de la Tribu Prévoyance en qualité de Team Leader . Véritable relais entre la stratégie de l’entreprise et les équipes opérationnelles, vous jouez un rôle clé dans la performance collective , le delivery produit et le développement des talents . 🧭 Vos principales responsabilités 👥 Management de la Tribu Prévoyance Gérer et accompagner les collaborateurs internes et externes de la tribu ; Adapter et optimiser l’organisation pour soutenir la performance ; Assurer la gestion administrative et les entretiens individuels des N-1 ; Suivre les missions des prestataires et assurer leur intégration ; Fixer, suivre et challenger les objectifs des Feature Teams ; Identifier les besoins de staffing et assurer le développement des compétences ; Fédérer les équipes autour d’une vision commune et d’objectifs partagés ; Assurer un reporting régulier auprès de la hiérarchie. 📦 Responsable du Delivery Produit Garantir le respect des engagements de la roadmap des produits de la Tribu Prévoyance ; Suivre les indicateurs (KPI) de performance, risques et alertes projets, et proposer des plans d’action ; Identifier et fluidifier les adhérences entre projets, en lien avec le Manager de l’Usine Logicielle et les autres Team Leaders. 🗂️ Suivi des Projets Évaluer la charge de travail vs la capacité des équipes et remonter les alertes le cas échéant ; Participer à la définition et au suivi des roadmaps avec les Product Managers (PM) ; Déterminer les priorités en coordination avec la hiérarchie, les PM et les clients ; Superviser la conception et la réalisation des projets jusqu’à la mise en production. 🧠 Vos compétences clés Savoirs Méthodologies agiles & cycle en V Environnement métier assurance de personnes Connaissances techniques en développement et urbanisation SI Pratique de la veille technologique Savoir-faire Gestion de projet & gestion du changement Animation d’équipe et accompagnement managérial Amélioration continue des processus Relation client & pilotage de prestataires Gestion des risques et priorisation Savoir-être Leadership, rigueur et sens des responsabilités Capacité à collaborer et à communiquer efficacement Esprit d’analyse et de synthèse Orientation client et résultats Prise d’initiative et gestion du temps
Offre d'emploi
Architecte Data
Publiée le
Ivalua
Javascript
Microsoft Excel
1 an
Île-de-France, France
Offre d’emploi : Data Architect – Solutions de Gestion des Risques Supply Chain Contexte et enjeux Vous rejoignez un projet stratégique visant à anticiper et à maîtriser les risques liés aux fournisseurs dans un environnement industriel à haute criticité. La plateforme sur laquelle vous interviendrez permet de gérer de façon proactive les risques fournisseurs pour un certain nombre de produits impactant la supply chain. Elle centralise les données issues de multiples systèmes, permet de simuler différents scénarios et d'en évaluer les impacts, et recommander des actions de remédiation. Les données intégrées dans l’application sont issues de différentes sources (ERPs, Procurement BI, e-ACQ, fichiers externes). Le traitement et la qualité des données sont essentiels car les chargements nécessitent un travail important de préparation avec des enjeux de performance, de fiabilité et de conformité réglementaire. Vos missions 1. Intégration et gouvernance des données Identifier les sources de données pertinentes (ERP, outils achats, fichiers externes, données marché). Définir les flux d’extraction, les règles de transformation et les formats cibles. Préparer les données (filtres, mappings, indicateurs, scripts d’automatisation). Garantir leur cohérence fonctionnelle. Mettre en place des processus d’automatisation pour fiabiliser et accélérer les mises à jour récurrentes. 2. Modélisation et qualité des données Vérifier l’adéquation des modèles de données proposés par l’éditeur et recommander des ajustements si nécessaire. Diagnostiquer les problèmes de qualité, analyser les écarts et proposer des solutions d’amélioration technique ou process. Contrôler la cohérence des indicateurs clés et des résultats de simulation. Maintenir un jeu de données de référence pour les tests et les validations. 3. Pilotage technique et support plateforme Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures sources et des données métier. Contribuer au déploiement des nouvelles versions applicatives et aux montées de version techniques. Participer aux tests des releases applicatives 4. Documentation et amélioration continue Documenter l’ensemble des traitements sur les données Participer aux phases de test, de non-régression et à l’analyse des incidents. Proposer des évolutions pour renforcer la robustesse et la scalabilité de la plateforme.
Mission freelance
Data Scientist – Projet Contracts AI
Publiée le
Docker
FastAPI
Machine Learning
3 mois
400-550 €
Paris, France
Télétravail partiel
En tant que Data Scientist, vous intégrerez l’équipe projet IA d'un de nos client et participerez aux activités suivantes : Mettre en œuvre la numérisation et la structuration du portefeuille de traités (traités et polices). Développer des analyses de wording et des analyses de tendances à partir des données contractuelles. Créer des jumeaux numériques alignés avec le modèle de données établi. Mettre en place des contrôles qualité et validation pour assurer l’intégrité des données. Produire une documentation technique complète pour l’intégration des données dans les modèles analytiques. Travailler en mode agile, avec des livrables versionnés sous GitLab (gitflow / mlflow).
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Data Analyst Tableau
Publiée le
Tableau software
12 mois
400-550 €
Rueil-Malmaison, Île-de-France
Télétravail partiel
Je recherche un Data Analyst Tableau ayant des connaissances UX et plus de 10 ans d' experience Vous serez au cœur de la démarche de pilotage par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité de plusieurs métiers. Mettre en place une solution d’automatisation de la production d’un reporting Automatiser la production du lineage d’un applicatif Organiser des comités de pilotage Construire un dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données Rédiger des spécifications Reporting et extractions Extractions de données, y compris pour la construction des budgets Construire des indicateurs Créer et maintenir des dashboards TABLEAU Suivre les KPI
Offre d'emploi
Product Owner data
Publiée le
Azure Data Factory
Cybersécurité
Data Lake
6 mois
Courbevoie, Île-de-France
Télétravail partiel
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.
Offre d'emploi
Développeur Python (H/F)
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
DATA SCIENTIST IA
Publiée le
Google Cloud Platform (GCP)
3 mois
Paris, France
8 ANS XP MINI •Création et à l’enrichissement du socle de données en auditant les nouvelles données disponibles sur le datalake •Explorer les données, analyser et comprendre les profils et comportements des utilisateurs •En mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … •Mettre en place la data science : comprendre le besoin métier, proposer des approches pertinentes et adaptées au besoin métier, savoir vulgariser •Prévision des audiences •Enrichissement du catalogue via l’IAG •Analyses sémantiques de commentaires utilisateurs •Prédiction de l’inactivité, des appétences, … •Segmentations de notre base utilisateurs •Expériences sur des projets IA de type prévisions, algo de recommandation, score d’appétence, anti-churn, analyse sémantique, détection d’anomalies •Expérience significative sur des sujets d’IAG •Maitrise de Python et SQL •Connaissance d’un environnement cloud, idéalement Google Cloud Platform •Expérience des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics...) •Connaissance d’un outil de dataviz •La connaissance des architectures API serait un plus •La connaissance des outils de gestion de versions GIT serait un plus
Offre d'emploi
Chef de projet data
Publiée le
Azure
Data Lake
Databricks
3 ans
40k-45k €
400-550 €
Île-de-France, France
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)
Publiée le
Gestion de projet
Méthode Agile
3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Mission freelance
Data Analyst - Infogérance - Lille (H/F)
Publiée le
Microsoft Power BI
SQL
6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Mission freelance
Chef de projet - Intégration en production
Publiée le
Chef
Intégration
Production
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Chef de projet avec une expérience reconnue dasn la conduite de projet d'intégration en production. L'intégration consiste à accompagner le maître d'œuvre informatique de la phase de conception jusqu'à la mise en production afin de garantir l'exploitabilité de son application. Les projets d'intégration concernent des nouvelles applications, des évolutions d'applications existantes ou des correctifs (patchs); tout cela pour des projets complexes. Pilotage : - Cadrage des Projets, depuis leur phase d'opportunité jusqu'à l phase de VSR. - Identification des écarts du projets au standards / politique industrielle et valide l'absence au catalogue - En lien avec l'équipe d'architecture technique, il traduit les exigences fonctionnelles de la MOE en exigences et nouveau(x) pattern(s) d'architecture ou nouvelle(s) brique(s) technique(s) élémentaire(s) à mettre en œuvre et à inscrire au catalogue. - Challenge les besoins et solutions proposées par la MOE, afin de respecter au mieux la politique industrielle, les patterns d'architecture et les briques techniques existants. - Est responsable de la validation de la solution par le comité technique. - S'assure auprès de l'équipe « Architecture SI/Infra, Sécurité, Conduite de projets infrastructure » du lancement et de la bonne réalisation des différents projets de mise en œuvre des solutions d'architecture et de briques techniques permettant de répondre aux exigences du projet. - S'assure que les nouvelles briques techniques / implémentation des nouveaux patterns d'architecture sont mis en œuvre dans l'orchestrateur par les équipes de MOE / Services d'infrastructures / Briques techniques. - Garantit les spécifications d'interfaces de la solution avec le reste du SI. - Définit la stratégie d'intégration de la solution dans l'environnement en impliquant les différents acteurs engagés sur le projet et la fait valider lors d'un comité d'intégration. - Coordonne les différentes équipes de la production en vue de la tenue des jalons du projet SI. - Engage la production sur l'intégration du nouveau SI dans l'éco-système. Exploitabilité : - Porte les exigences d'exploitabilité dans les phases de conception générale et détaillée du projet et garantit l'exploitabilité de la solution SI livrée. - Représente la MOE vis-à-vis de l'exploitant - Pilote la conduite du changement de la solution vers l'exploitant et garantit le transfert de responsabilité. - Est responsable de la bonne exécution de tests de vérification d'exploitabilité réalisés par l'exploitant - Pilote la conduite du changement de la nouvelle solution mise en œuvre dans le cadre du projet SI Métier auprès de l'exploitant et garantit le transfert de responsabilité. - Est responsable, vis-à-vis de l'exploitant de la gestion des incidents et des problèmes (y inclus de performance) de la solution sur la...
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Mission freelance
Mission Freelance – Data Steward / Chef de projet Data Gouvernance
Publiée le
Market data
1 an
400-670 €
Île-de-France, France
Télétravail partiel
Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Obtenir un numéro D.U.N.S en auto entreprise
- Choix mission fonctionnel data
- Stratégie épuisement des fonds jusqu'à la retraite
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
2551 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois