L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 179 résultats.
Mission freelance
Data Engineer Principal
Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake
6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Mission freelance
Master Data SAP Junior (H/F)
Freelance.com
Publiée le
Master Data Management (MDM)
Microsoft Excel
SAP MM
3 mois
100-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission freelance | Démarrage ASAP | 3 à 6 mois renouvelable Localisation : Aix-en-Provence (hybride / télétravail possible) 1. Description du poste Dans le cadre d’un projet de recodification massive du référentiel articles dans SAP , nous recherchons un consultant freelance Master Data SAP Junior afin de renforcer l’équipe en charge de la mise à jour et de la qualité des données. La mission a pour objectif de participer à la mise à jour, à la fiabilisation et à la recodification du référentiel articles SAP , afin d’améliorer la qualité et la cohérence des données. Missions principales Création, modification et mise à jour des fiches articles dans SAP Application des règles de recodification définies par l’équipe Master Data Réalisation d’opérations massives de mise à jour de données Vérification de la qualité et de la cohérence des données Contrôle des informations issues des fichiers de migration ou d’inventaire Participation aux tests de cohérence et à la validation des données Documentation des anomalies et incohérences détectées Suivi des opérations dans les outils de pilotage Coordination avec les équipes : Supply Chain IT / SAP Référents Master Data Livrables attendus Mise à jour du référentiel articles selon les règles définies Contrôle qualité et fiabilisation des données
Mission freelance
Solution Architecte / Tech Lead IA Python
HAYS France
Publiée le
Agent IA
Amazon SageMaker
API REST
3 mois
700-800 €
Paris, France
Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. 1. Description de la mission Dans le cadre des projets IT Innovation, il s'agira d'intégrer et de renforcer l'équipe, en tant que Solution Architecte et Tech Lead IA Python . Vous serez en charge des spécifications, conceptions architecturales et réalisations des différents modules nécessaires à la mise en production des solutions IA. Cette équipe travaille en mode agile en proximité avec les métiers Products & Innovation ainsi que les équipes métier et IT des autres filières du client. En tant que Tech Lead, vous aurez la responsabilité de développer les solutions tout en accompagnant et en montant en compétences les développeurs Python/IA de l'équipe . Vous jouerez un rôle clé dans l 'architecture des solutions IA, l'intégration des LLMs et technologies ML/DL, et dans la mise en place des meilleures pratiques de développement assisté par IA. Expert reconnu en vibe coding , vous maîtrisez parfaitement l'utilisation des outils d 'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer le développement tout en garantissant la qualité architecturale et la maintenabilité du code. Vous êtes capable de former et guider l'équipe dans l'adoption de ces nouvelles méthodes de travail. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire . Résultats attendus (Livrables) • Participation active aux workshops avec les équipes IT/métiers du client et contribution aux décisions architecturales • Conception et design d'architectures de solutions IA scalables et robustes (LLMs, ML/DL, data pipelines) • Prise en charge des modules critiques du projet : Architecture, Conception, Développement, Tests, mise en production • Accompagnement et mentorat des développeurs Python/IA de l'équipe (code reviews, pair programming, transfert de compétences) • Formation et coaching de l'équipe sur les techniques de vibe coding et utilisation optimale des outils IA • Création d'une bibliothèque de prompts réutilisables et de best practices pour le développement assisté par IA • Définition et mise en place des standards de développement Python et des best practices IA • Échanges et communications techniques avec les autres membres de l'équipe et les parties prenantes • Documentation architecturale complète (ADR - Architecture Decision Records, diagrammes, patterns, choix techniques) • Documentation des best practices techniques et méthodologiques détaillée • Mise en place et automatisation des tests (pytest, unittest, tests d'intégration, tests de modèles IA) • Contribution à la stratégie MLOps et à l'industrialisation des solutions IA • Optimisation des performances et des coûts des solutions IA (latence, throughput, coûts API) • Veille technologique et recommandations sur les évolutions techniques de la stack Python et IA • Évaluation et benchmark des nouveaux outils, frameworks et modèles IA pour améliorer la productivité • Animation de sessions de partage de connaissances sur l'IA et le vibe coding
Mission freelance
Consultant SAP PP QM Data Migration
SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM
9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)
Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks
6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique
Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F
SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA
1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Mission freelance
Data Scientist Machine Learning Copilot - full remote
Net technologie
Publiée le
Agent IA
Copilot
Data science
3 mois
400-420 €
France
Nous recherchons un datascientist Machine Learning pour une mission en fullremote depuis la France. Nous recherchons un(e) Data Scientist pour contribuer au déploiement d’un Sales AI Copilot destiné à assister les équipes commerciales. ❇️ Comprendre les enjeux Sales (pipeline, forecast, CRM…) ❇️ Concevoir des solutions data-driven & modèles ML ❇️ Déployer des cas d’usage LLM (RAG, Q&A, génération de texte) ❇️ Industrialiser les modèles (pipelines, MLOps, monitoring) sur Azure ❇️ Interagir avec le business et vulgariser les insights
Offre d'emploi
Gestion de Projets Data
VISIAN
Publiée le
Gestion de projet
1 an
Bruxelles, Bruxelles-Capitale, Belgique
Descriptif du poste Dans le cadre de l'intégration des activités au sein d'une grande banque de gestion d'actifs, nous recherchons une expertise en gestion de projets data (au sein d'un asset manager), associée à une bonne connaissance des données de référence (instruments financiers et benchmarks). Le consultant retenu jouera un rôle clé dans la transition des données et des processus vers la plateforme data de l'entreprise – Aladdin. Cela inclut notamment : Accompagner la migration et l'intégration des référentiels Security Master et des données de benchmarks dans Aladdin. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux phases de tests, de réconciliation et de validation des processus.
Offre d'emploi
Consultant fonctionnel H/F
CONSORT GROUP
Publiée le
KPI
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant fonctionnel H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la gestion de projets de transformation et les enjeux de sécurité des systèmes d’information ? Ce poste est fait pour vous. En tant que consultant fonctionnel, vous êtes responsable du pilotage opérationnel du déploiement de l’authentification forte (2FA) et de la coordination des acteurs techniques et métiers au sein de l’écosystème : Côté build : Piloter le déploiement de la solution d’authentification forte (CPS/CPS+, clés FIDO) Définir et animer les ateliers de cadrage (objectifs, participants, supports) Identifier les besoins métiers et les points de blocage Construire et suivre le plan de déploiement (planning, jalons, priorisation) Coordonner les équipes techniques (DSN, IAM, Thales STA) et les parties prenantes métiers Assurer une veille sur les évolutions réglementaires (PGSSI-S, recommandations ANS) Adapter la stratégie projet en fonction des orientations nationales et des contraintes terrain Côté run : Animer les réunions de suivi projet et piloter les plans d’action Produire les comptes-rendus et assurer le suivi des décisions Mettre en place et suivre les indicateurs de pilotage (reporting COPIL) Rédiger la documentation utilisateur (guides, FAQ, supports de formation) Accompagner les utilisateurs (professionnels de santé) dans l’appropriation des solutions Gérer les retours terrain et ajuster les actions de déploiement Contribuer aux activités transverses de l’équipe déploiement (VFT, support projet) C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements projets complexes, idéalement dans le secteur de la santé. Vous aimez piloter des dispositifs à forts enjeux organisationnels et sécuritaires sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet (cycle en V, Agile, conduite du changement) Environnements sécurité / IAM / authentification forte (2FA, CPS, FIDO, SSO) Connaissance des référentiels santé (PGSSI-S, ANS) Coordination multi-acteurs (équipes techniques, métiers, éditeurs) Outils de pilotage (reporting, KPI, supports de communication, documentation) C’est votre manière de faire équipe : Excellentes capacités d’animation et de facilitation Diplomatie et sens du relationnel dans des environnements sensibles Rigueur et sens de l’organisation Esprit d’analyse et compréhension systémique Capacité à vulgariser des sujets techniques auprès des métiers C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours/ semaine Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Gestion de projet Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Consultant réseau & sécurité
FUZYO FRANCE
Publiée le
Check Point
F5
Firewall
6 mois
Paris, France
- Déploiement, administration et optimisation des (, , ) et des load balancers . - Participation à la refonte de l’infrastructure firewall et load balancer pour renforcer la résilience. - Contribution à la migration interne des infrastructures et au plan Telecom. - Gestion des data centers multisites (France, Belgique, Italie). - Suivi des audits de sécurité et des campagnes de conformité. 📝 Compétences requises : - Minimum d’expérience en sécurité réseau. - Maîtrise des technologies : , , , . - Bon niveau d’anglais technique (échanges avec fournisseurs). - Autonomie, capacité d’adaptation aux process internes. - Idéalement certifié sur les solutions / .
Offre d'emploi
Business Analyst Data
Peppermint Company
Publiée le
Business Analyst
Data management
Développement
Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
Mission freelance
Product Owner IA
Axysse
Publiée le
KPI
Large Language Model (LLM)
RAG
6 mois
500-650 €
Île-de-France, France
Dans le cadre de l’évolution d’un assistant conversationnel déjà déployé au sein d’une application mobile à forte audience, nous recherchons un Product Owner IA expérimenté pour piloter l’extension de ses usages vers de nouveaux périmètres métiers (assurance vie, leasing, etc.). Depuis son lancement, cet assistant a déjà généré plus d’un million de conversations, confirmant son rôle structurant dans l’amélioration de l’expérience utilisateur. 🎯 Votre rôle Vous intervenez sur une phase clé de structuration et d’extension produit, en lien étroit avec les équipes IT, Data/IA et Métiers. À ce titre, vous serez amené à : • Cadrer les évolutions du produit à partir des travaux d’idéation existants • Définir la vision produit et piloter la roadmap associée • Concevoir l’architecture de gestion des données et la base documentaire • Rédiger les user stories et suivre les développements • Mettre en place la gouvernance projet et les dispositifs de pilotage • Définir et suivre les KPI (usage, performance, impact) • Animer les ateliers et coordonner les parties prenantes Le produit repose sur une plateforme RAG + LLM interne, intégrant différents modèles (OpenAI, Mistral, Google…). 📍 Informations pratiques • Mode de travail : Hybride • Démarrage : ASAP • Durée : 6 mois renouvelables ✨ Pourquoi cette mission ? • Produit déjà déployé et utilisé à grande échelle • Enjeux stratégiques autour de l’IA générative • Forte exposition et impact métier • Périmètre fonctionnel riche et évolutif
Offre d'emploi
Cloud Data Engineer AWS H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Mission freelance
IA Ready Analyst
ESENCA
Publiée le
Business Analyst
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Ready Lead Position dans l’organisation Le/la IA Ready Analyst prépare et structure les contenus nécessaires au bon fonctionnement des solutions d’intelligence artificielle (copilots, agents, RAG). Il/elle intervient en amont du delivery pour garantir la qualité, la cohérence et l’exploitabilité des bases de connaissances. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la conformité Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Ready Analyst est responsable de la préparation fonctionnelle des connaissances et contenus utilisés par les solutions d’intelligence artificielle. Il/elle structure les bases de connaissances, garantit leur qualité sémantique, leur cohérence métier et leur traçabilité, et contribue à leur industrialisation pour permettre un usage fiable et performant de l’IA. Responsabilités principales 1. Préparation des contenus IA Identifier et exploiter les sources nécessaires aux cas d’usage IA Structurer, nettoyer et enrichir les bases de connaissances Définir la classification métier (taxonomie, tagging, hiérarchie) Préparer les contenus pour les usages RAG (segmentation, granularité adaptée) 2. Analyse fonctionnelle Comprendre les processus métiers pour organiser les connaissances Définir les règles d’inclusion et d’exclusion des contenus Garantir la cohérence sémantique entre documents et référentiels Assurer l’alignement avec les besoins fonctionnels des cas d’usage 3. Coordination opérationnelle Collaborer avec les équipes IT pour la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour valider la complétude des contenus Contribuer aux spécifications fonctionnelles liées à l’indexation et à l’exploitation des données 4. Qualité des données et des contenus Identifier les doublons, incohérences, obsolescences et manques Appliquer les règles de qualité définies Garantir la lisibilité, la fiabilité et la pertinence des connaissances Améliorer en continu la qualité des bases de connaissances 5. Documentation et gouvernance Maintenir la documentation fonctionnelle des bases IA Appliquer les règles de gouvernance des connaissances Mettre en place et suivre les processus de mise à jour Assurer la pérennité et la maintenabilité des contenus 6. Contribution à la conformité Garantir la traçabilité des sources utilisées Veiller à l’absence de données sensibles non nécessaires Contribuer aux exigences réglementaires (ex : RGPD, cadre IA) Fournir les éléments nécessaires aux équipes en charge de la conformité 7. Industrialisation et réutilisation Appliquer les standards IA Ready sur les nouveaux cas d’usage Maintenir des modèles de connaissances réutilisables Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques de structuration des contenus
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Offre d'emploi
Expert Data Gouvernance H/F
Avanda
Publiée le
Apache Airflow
Collibra
Databricks
12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7179 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois