Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 314 résultats.
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance
CDI
CDD

Offre d'emploi
Consultant Datastage (Luxembourg)

EXMC
Publiée le
IBM DataStage
Oracle

6 mois
Luxembourg
Le consultant intégrera l’équipe Data, qui a en charge la mise à disposition des données pour les différents consommateurs Data (BI, Data Scientists, équipes métiers, etc.). La mission est à réaliser en respectant les normes règlementaires et la gouvernance des données. Au sein de cette équipe le consultant interviendra dans le cadre du projet afin de participer à la conception et au développement des flux d’alimentations du nouveau Data Warehouse bancaire selon les normes et standards. Exemples non exhaustif de tâches à accomplir : · Analyser les besoins des équipes métiers · Concevoir des solutions robustes et optimisées et rédiger les spécifications techniques · Proposer une planification réaliste des travaux et livraisons · Développer les flux Datastage · Assurer la partie testing et support des métiers lors de la qualification · Documenter et déployer les solutions selon les normes · Assurer la maintenance, la qualité et les performances des solutions livrées · Travailler en étroite collaboration avec l’équipe projet (Data Engineers, équipes métiers, Chef de projet IT, Chef de projet Métier) · Assurer un reporting régulier sur l’état d’avancement des projets et tâches confiées · Identifier les risques et proposer des solutions pour respecter les délais et objectif Les qualifications requises sont : · Expérience d’au moins 10 ans dans le domaine de la Data · Maitrise avancée d’IBM Datastage (5 ans d’exp. minimum) · Une expérience confirmée sur des projets Data Warehouse en environnement bancaire ou financier · Fortes capacités analytiques et de résolution de problèmes · Solides connaissances en bases de données (Oracle, SQL Server, DB2) · Maitrise des techniques de modélisation des données (relationnelles, multidimensionnelles) · Aisance de communication · Facilité d’intégration et esprit d’équipe · Rigueur, autonomie et gestion des priorités · Sensibilité aux enjeux de qualité, traçabilité et gouvernance des données · Expérience avec les outils (Webfocus, Denodo, Dataiku, Power BI, Cloudera) est considérée comme un avantage
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Git
Oracle

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Développeur Fullstack Senior Python Typescript(H/F)

HOXTON PARTNERS
Publiée le
API REST
Python
TypeScript

6 mois
Paris, France
Dans le cadre d’un programme d’envergure, nous recherchons un Développeur Fullstack confirmé pour intervenir sur la conception, le développement et le maintien en condition opérationnelle de composants logiciels critiques. Le projet s’inscrit dans un contexte d’innovation, d’interopérabilité et de valorisation de données sensibles, à destination de médecins, chercheurs et équipes métiers, avec une forte orientation Open Source. Missions principales Le consultant interviendra sur l’ensemble du cycle de vie des applications, avec un haut niveau d’autonomie, et sera notamment en charge de : Concevoir et développer des composants Front-end et Back-end robustes et réutilisables Développer et exposer des API REST conformes aux standards d’interopérabilité (FHIR) Réaliser des interfaces utilisateurs en JavaScript / TypeScript (React) Assurer la maintenance évolutive et le maintien en condition opérationnelle des applicatifs Produire des spécifications techniques détaillées et de la documentation technique Mettre en œuvre les tests unitaires, fonctionnels et de non-régression Contribuer à la qualité logicielle (sécurité, performance, documentation) Collaborer avec des équipes pluridisciplinaires (designers, PM/PO, data engineers, chercheurs, médecins) Participer à des projets Open Source reconnus dans le domaine de la santé
Freelance

Mission freelance
Senior DataOps / DevOps AWS – Terraform

OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Freelance
CDI

Offre d'emploi
Tech Lead Data

KP2i
Publiée le
CI/CD
DBT
Python

12 mois
40k-60k €
400-600 €
Île-de-France, France
Tech Lead Data & Analytics (Snowflake, dbt, Tableau) – Télétravail possible 📍 Temps plein | F/H/X Nous recherchons un(e) Tech Lead Data pour rejoindre une Feature Team et piloter le développement de produits Data Analytics & IA de haute qualité. Missions principales : Encadrer et coacher une équipe de Data Engineers Définir les choix techniques et modélisations des produits Data Industrialiser et optimiser les flux et produits Data Relever des défis techniques, challenger le "status quo" et proposer des améliorations Compétences techniques requises : SQL, Python, Jinja Snowflake (ou autre Modern Data Platform, ex: GCP BigQuery) dbt, Tableau ou autres outils Analytics Culture Agile & DevOps (CI/CD) Profil recherché : 7+ ans d’expérience en Data, dont 3 ans comme Senior Data Engineer Leadership, autonomie et orientation résultats 💬 Candidature / Contact : Merci de postuler via le site ou de nous envoyer un message directement pour échanger sur le poste.
CDI

Offre d'emploi
Business Analyst Data H/F

█ █ █ █ █ █ █
Publiée le
Big Data
DevOps
Git

42k-46k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Expert IA

NEO SOFT SERVICES
Publiée le
Ansible
Docker
Gitlab

4 mois
Nantes, Pays de la Loire
L'un des pôles de notre client est porteur de l’offre d’ Aide au Delivery qui doit permettre de sécuriser et d’améliorer l’ensemble du processus de CI/CD en s’intégrant dans les différents outils intervenant dans la chaine. CAS D’USAGES • Correction pré-compilation des vulnérabilités : Détection et suppression des failles dans les dépendances avant la phase de build (ex. vulnérabilités dans des librairies open source comme Log4j). • Analyse des rapports : Exploitation des rapports générés par SonarQube pour identifier les points critiques et proposer des actions correctives. • Analyse et correction des erreurs : Diagnostic des échecs de tests unitaires ou d’intégration et suggestion de correctifs automatisés (ex. erreurs de configuration dans Docker ou Kubernetes). • Optimisation des normes de sécurité et DEV : Vérification de la conformité aux standards internes (ex. respect des conventions de codage). • Prédiction des échecs de BUILD : Utilisation de modèles prédictifs pour anticiper les échecs liés à des conflits de dépendances ou des problèmes de versioning. • Assistance au développement des pipelines : Génération de templates optimisés pour GitLab CI/CD, incluant des bonnes pratiques de sécurité et de performance. Ce pôle est également contributeur de l’offre d’ Aide à la Conception qui est définie comme une Assistance intelligente pour l'ensemble du cycle de conception de produits, de la capture des besoins à la planification des sprints . L'IA analyse les spécifications textuelles des utilisateurs, les traduit automatiquement en tâches structurées, estimations d'effort et les organise logiquement en feuilles de route et backlogs optimisés. Cela accélère la phase de planification, réduit les ambiguïtés et améliore la cohérence de la documentation du projet. CAS D’USAGES • Traduction de cahier des charges en users stories : Transformer un cahier des charges en un backlog organisé (user stories), hiérarchisé par thèmes ou épopées (epics). • Affinement des Exigences : Compléter et clarifier des récits utilisateurs incomplets ou ambigus en suggérant les critères d'acceptation manquants. • Génération de Documentation Technique : Créer automatiquement des ébauches de documents de spécifications techniques ou des diagrammes d'architecture à partir des récits utilisateurs approuvés. Ce pôle participe aussi à l’offre Aide aux tests fonctionnels , qui s'intègre à l'environnement Squash pour accélérer la création et la maintenance des tests fonctionnels. En analysant les exigences et les spécifications, l'IA génère automatiquement des cas de tests structurés (étapes, actions, résultats attendus) qui pourront être importés ou validés dans Squash TM. Elle garantit une couverture fonctionnelle optimale tout en standardisant la qualité rédactionnelle des scénarios de tests fonctionnels. CAS D’USAGES • Génération des jeux de tests : L'utilisateur soumet une exigence textuelle, et l'IA produit la liste séquentielle des étapes à saisir dans Squash, en distinguant clairement l'action utilisateur du résultat attendu par le système. • Création de Variantes : À partir d'un "cas passant" (nominal) déjà écrit dans Squash, l'IA propose 3 ou 4 variantes de "cas d'erreur" ou de tests aux limites que le testeur aurait pu oublier. • Refactorisation et Clarification : L'IA analyse des descriptions de tests existants un peu flous ou anciens et propose une réécriture plus concise et standardisée pour améliorer la lisibilité du patrimoine de tests. Plusieurs outils gérés par le pôle SAM sont concernés à la mise en œuvre de ces offres, à minima : • Gitlab • Squash • Jira La prestation consistera, en collaboration avec les architectes techniques et fonctionnels, les services owners, tech leads et data engineers de l’équipe, le pôle Production de l’offre MLOps : Contribution à définir les besoins et évolutions nécessaires sur les outils ou processus pour répondre aux attendus sur les offres dont le pôle est porteur ou contributeur Concevoir et contribuer à la mise en œuvre technique des évolutions nécessaires Rédiger l’offre de service en collaboration avec le service owner correspondant
Freelance

Mission freelance
DataOps Engineer

AGH CONSULTING
Publiée le
CI/CD
DBT
ETL (Extract-transform-load)

6 mois
300-420 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Ingénieur DataOps afin d'apporter une expertise technique sur la mise en place et l'évolution de la stack data. A cet titre, vos principales missions seront les suivantes : - Faire évoluer les process, outils, codes et plateformes permettant de répondre aux mieux aux besoins - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CI/CD
Freelance

Mission freelance
DataOps Engineer expert Snowflake(H/F)

Freelance.com
Publiée le
Snowflake

3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
Intégré(e) à la direction IT DATA , au sein d’une équipe Data Tech, vous interviendrez sur la mise en place et l’évolution de la stack data , avec une forte dimension DataOps & industrialisation .🔧 Vos responsabilités Concevoir des architectures DATA scalables (Agilité, CI/CD, intégration continue) Participer à l’optimisation des coûts (FinOps) Former les Data Engineers aux outils de la stack data Mettre à disposition des outils d’aide au développement et de monitoring Assurer une veille technologique autour des architectures data Encadrer l’ industrialisation des déploiements applicatifs (bonnes pratiques CI/CD) 🛠 Compétences techniques requises Snowflake : Expert (> 5 ans) Python : Confirmé (2–5 ans) CI/CD : Confirmé (2–5 ans) DataOps : Confirmé (2–5 ans) ETL : Talend / DBT – Confirmé (2–5 ans) ⭐ Points clés Environnement data mature Enjeux de performance & industrialisation 📌 Pour chaque candidature technique, merci d’inclure impérativement : CV du consultant Tests de sélection / mise à jour du niveau de compétences / prise de référence Première grille de compétences en auto-évaluation (PJ)
Freelance

Mission freelance
INGENIEUR MLOps

HAYS France
Publiée le
Ansible
Apache Airflow
Cloud

3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
Full Stack C#/React Developer

Phaidon London- Glocomms
Publiée le
.NET
.NET Framework
C#

6 mois
600-700 €
Paris, France
Intitulé du poste : Développeur Full Stack C# / React Localisation : Paris, France (Hybrid) Type de contrat : Mission de 6 mois Contexte Nous recherchons un Développeur Full‑Stack C# / React pour concevoir et développer, à partir de zéro, une nouvelle génération d’outils ainsi qu’un portail web permettant aux équipes Sales et Structuration de tarifer, commercialiser et suivre en continu (24/7) les offres énergétiques. Ces offres garantissent une correspondance horaire entre production renouvelable et consommation, une étape clé vers une véritable décarbonation. Vous jouerez un rôle central dans la création d’une plateforme cloud‑native, sécurisée, évolutive, destinée à devenir un élément stratégique pour l’organisation. Responsabilités : Concevoir et développer des applications full‑stack en C#/.NET Core et React Créer un portail web robuste permettant la tarification, l’établissement de devis et le suivi des offres décarbonées 24/7 Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes (TPIs) Mettre en œuvre des flux de données en temps réel ou quasi temps réel pour l’appariement horaire énergie‑production Traduire les besoins métiers en solutions techniques évolutives et maintenables Construire des composants cloud‑native en utilisant les services Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD selon les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe IS Sales & Customers Documenter les solutions et contribuer au partage des connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences techniques requises : Expertise en développement backend C#/.NET Core Maîtrise de React avec les outils frontend modernes (TypeScript, Hooks, gestion d’état) Développement cloud‑native sur Azure, notamment : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Conception d’API (REST, GraphQL apprécié) Connaissance des architectures sécurisées et de la gestion des identités (OAuth2, Azure AD, MSAL) Solide expérience dans la construction de pipelines CI/CD (Azure DevOps ou GitHub Actions) Veuillez postuler directement ou me contacter à l’adresse suivante :
Freelance

Mission freelance
Data Product Owner H/F

LeHibou
Publiée le
Data analysis

6 mois
500-550 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Data Product Owner H/F Description de la mission: Dans le cadre du renforcement de son organisation Data, l’entreprise souhaite délivrer des Data Products fiables et de confiance à l’échelle du groupe, dans un contexte de modernisation de la Data Platform et de migration du legacy vers une plateforme unifiée. Au sein d’une Data Product Squad, l’entreprise recherche un(e) Data Product Owner expérimenté(e) pour accélérer la livraison et améliorer la fiabilité des Data Products (pipelines, datasets, dashboards), en forte collaboration avec les équipes Data Engineering, BI et les parties prenantes métiers. Le rôle s’exerce dans un contexte : • de plateformes de données modernes (Databricks / Snowflake / BigQuery / Power BI) • de migration des systèmes legacy vers une Data Platform unifiée • d’industrialisation des Data Products et du Run Key Objectives La mission se concentre sur ces objectifs principaux : 1. Pilotage de la livraison des Data Products • Prendre en charge et prioriser le backlog en ligne avec les priorités métiers et Data • Garantir une livraison de Data Products de haute qualité (datasets, pipelines, dashboards) 2. Renforcer la modélisation et la fiabilité de la donnée • Piloter la data modeling (couches Bronze / Silver / Gold, semantic layer) • Améliorer la robustesse des pipelines et de la consommation analytique 3. Industrialiser la livraison et le Run • Améliorer le time-to-data, l’adoption et la performance opérationnelle • Suivre les KPIs des Data Products (usage, qualité, incidents) Product Ownership & Delivery • Collecter, clarifier et challenger les besoins métiers • Rédiger des user stories orientées Data (sources, règles, impacts, critères d’acceptation) • Gérer la priorisation du backlog, le découpage et la gestion des dépendances • Améliorer la qualité des tickets (DoR / DoD) • Sécuriser la livraison via la gestion des risques et le suivi de l’avancement Agile Practices • Contribuer / animer les cérémonies de refinement, sprint planning, reviews, retrospectives, synchronisations PO • Assurer une synchronisation continue avec les équipes Data Engineering et BI Data Products & Platforms • Piloter la construction des Data Products (datasets, tables Gold, semantic models, dashboards) • Contribuer à la modélisation des données et à la conception de la couche de serving • Travailler sur les pipelines d’ingestion et d’historisation avec les Data Engineers • Contribuer à la rationalisation des couches analytiques Data Push • Adopter une posture proactive de « Data Push » : proposer des solutions fonctionnelles et techniques au-delà des besoins exprimés • Traduire les besoins métiers en Data Products orientés valeur, en tirant parti des capacités de la plateforme
Freelance
CDI

Offre d'emploi
Business Analyst Banque SQL SSIS

CELAD
Publiée le
Analyse

12 mois
40k-59k €
400-550 €
Paris, France
POSTE de BA au sein du pôle HUB de l’équipe Data&Reporting Mission Mission située au niveau de l'équipe DSI au niveau de l’équipe Data et Reporting au sein de la cellule HUB. La mission consistera à être Business Analyst sur la plateforme Data du SI. · Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. · Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) · Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Freelance

Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)

Freelance.com
Publiée le
Merise

1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
314 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous