Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 720 résultats.
Freelance

Mission freelance
Data Manager expert modélisation de données (H/F)

Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake

12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
CDI

Offre d'emploi
POT9085 - Un Agile Master Data Sur Plaine Saint Denis

Almatek
Publiée le
Méthode Agile

Saint-Denis, Île-de-France
Almatek recherche pour l'un de ses clients, Un Agile Master Data Sur Plaine Saint Denis. Contexte : Au sein de la direction des technologies, les équipes Data Services ont pour raison d’être de fournir une plateforme et des services data fiables, sécurisés et industrialisés, permettant aux équipes produit et métiers des différentes BU d’exploiter la donnée en toute autonomie. Elles agissent comme un enabler transverse, en séparant clairement les responsabilités (infrastructure, gouvernance, usages) et en mettant à disposition des données de qualité, accessibles et exploitables à l’échelle de l’entreprise. Par leur expertise, elles valorisent la donnée pour soutenir la prise de décision, le pilotage de la performance et l’innovation, au service des enjeux business et stratégiques Activités : Au sein des équipes Data Services, le consultant sera amené à avoir : Un rôle d’agile master au sein d’une équipe pluridisciplinaire œuvrant sur un produit Un rôle d’agile master à l’échelle du domaine Data Fabric ( 30 personnes), A animer les cérémonies et faciliter les ateliers collaboratifs A Mettre en place les artefacts (Indicateurs, Burndown, HealthCheck...), utiles, utilisés et utilisables au suivi de l’efficience du collectif et élaborer le plan d’amélioration continue Identifier les dysfonctionnements et points d’amélioration Analyser proactivement les obstacles, éléments bloquants, interférences extérieures, et de tout ce qui peut détourner le collectif de ses objectifs et le ralentir Alerter sur les éléments bloquants et obstacles qui ne peuvent être traités localement Compétences attendues : Capacité à analyser et à comprendre un système complexe (techniquement, fonctionnellement et organisationnellement). Capacité à résoudre des problématiques. Esprit d’analyse et de synthèse. Organisation. Rigueur. Bonne capacité à travailler en équipe.
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Freelance
CDI

Offre d'emploi
Gestion de Projets Data

VISIAN
Publiée le
Gestion de projet

1 an
Bruxelles, Bruxelles-Capitale, Belgique
Descriptif du poste Dans le cadre de l'intégration des activités au sein d'une grande banque de gestion d'actifs, nous recherchons une expertise en gestion de projets data (au sein d'un asset manager), associée à une bonne connaissance des données de référence (instruments financiers et benchmarks). Le consultant retenu jouera un rôle clé dans la transition des données et des processus vers la plateforme data de l'entreprise – Aladdin. Cela inclut notamment : Accompagner la migration et l'intégration des référentiels Security Master et des données de benchmarks dans Aladdin. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux phases de tests, de réconciliation et de validation des processus.
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Freelance

Mission freelance
IT & Data Integration Manager

TEOLIA CONSULTING
Publiée le
ERP
Google Cloud Platform (GCP)
Supply Chain

6 mois
Paris, France
Dans le cadre d’un programme de transformation stratégique autour d’un outil d’Integrated Business Planning (IBP), un grand groupe international recherche un IT Data & Integration Manager. Ce programme vise à connecter plusieurs systèmes (ERP, outils métiers, plateformes data) afin de fiabiliser la donnée et améliorer la prise de décision à l’échelle globale. Missions : Piloter la mise en place des flux de données et interfaces entre systèmes Définir les règles de transformation des données et les spécifications fonctionnelles / techniques Coordonner les équipes internes (Business, IT) et l’intégrateur Suivre la delivery en Agile (backlog, sprints, Jira) Garantir la qualité, la cohérence et la fiabilité des données Participer aux phases de tests (UAT, validation, mise en production) Anticiper et sécuriser le passage en RUN (monitoring, performance, stabilité)
Freelance

Mission freelance
Business Analyst Data / PO Senior

STHREE SAS pour HUXLEY
Publiée le

12 mois
75001, France
📍 Paris * 🧑‍💻 3j TT / 1j présentiel * 🚀 Début : 01/04/2026 * 🔁 Durée : 12 mois (renouvelable jusqu'à 3 ans) 🗂 Assistance technique * FR courant * EN pro - secteur : BANQUE 📊 Domaines : paiements, clients, transactions, finance, Datalake 🎯 Contexte Une personne de l'équipe arrive au terme de ses 3 ans de mission. Départ prévu en septembre, avec passation complète. Environnement à taille humaine, organisation mature, sujets data stimulants et visibilité transverse. Vous intervenez sur un périmètre riche, au cœur de la chaîne de valeur data. 🧠 Votre rôle (Business Analyst Data Senior / PO) Vous interviendrez de bout en bout : Analyse & cadrage Recueil et analyse des besoins métiers Proposition de simplifications / cibles process Rédaction des spécifications (US, AC, règles de gestion) Build & delivery Préparation du backlog et suivi des squads Dev/Ops Validation des développements Contribution aux tests, UAT, déploiement et post-prod Run / BAU Support fonctionnel (incidents & petites évolutions) Suivi de la qualité des données & investigations SQL 🔶 Mission principale : BA Data transverse Focus domaines : paiements, clients, transactions, finance , avec un fort volet spécifications + accompagnement build/BAU et une expertise migration / validation des données . 📦 Livrables Specs fonctionnelles & règles de gestion US / AC, data dictionary, schémas de modélisation Plans de tests & support UAT Support BAU ➕ Livrables additionnels (migration & qualité de données) Stratégie de migration, mapping, règles de transformation Plans de validation (comptages, réconciliations, seuils) Rapports de qualité & readiness cutover ✅ Profil recherché BA Data Senior : autonome, transverse, orienté valeur métier Excellente maîtrise : modélisation , rédaction de specs , tests Très bonne compréhension des environnements Datalake SQL confirmé pour investigations & contrôles fonctionnels Contexte bancaire apprécié (paiements / clients / transactions / finance) Expérience concrète en migration de données : mapping, transformation, qualité, réconciliations, gestion des écarts
Freelance

Mission freelance
Mission freelance - Audit Architecte F5 - Paris

KUBE Partners S.L. / Pixie Services
Publiée le
F5
Gestion des accès privilégiés (PAM)

10 jours
650-850 €
Paris, France
Fiche de Poste : Consultant Senior / Architecte Sécurité (Expertise F5 & Infrastructures) Mission de 10 jours Contexte de la mission Dans le cadre d'une étude de sécurisation critique portant sur les équipements F5, vous intervenez pour analyser, challenger et définir la trajectoire de renforcement d'une architecture exposée. Votre rôle consiste à transformer un périmètre technique (2 équipements F5) en une stratégie de défense globale incluant la résilience, la gouvernance des accès et la réponse aux incidents. Missions et Responsabilités 1. Audit et Analyse de l'Existant (Topologie & Accès) Analyse Réseau : Évaluer la segmentation, les politiques de pare-feu et les ACL pour isoler strictement les plans de contrôle et de données. Hygiène Technique : Étudier la réduction de la surface d'attaque via la désactivation/restriction des interfaces inutilisées (TMUI, iControl REST, SNMP). Identité : Évaluer l'opportunité d'intégrer une solution de PAM (Privileged Access Management) pour tracer et surveiller les sessions d'administration. 2. Ingénierie de la Protection (Trafic & Données) Edge Security : Arbitrer sur le positionnement d'un proxy inverse ou d'un WAF en amont pour contrer les menaces externes. Durcissement : Définir les politiques de géoblocage, de rate-limiting et de rotation des certificats TLS. Back-end & API : Évaluer la mise en œuvre du mTLS , de la micro-segmentation et de la tokenisation des flux entre les F5 et les systèmes applicatifs. 3. Détection et Résilience Opérationnelle Supervision : Garantir l'intégration de la télémétrie F5 dans le SIEM client. Incident Response : Concevoir des règles de détection d'anomalies et élaborer des runbooks d'escalade spécifiques aux incidents F5. 4. Gouvernance et Pilotage Identifier les risques résiduels et les consigner dans un registre structuré. Établir un calendrier de remédiation et une structure de gouvernance pérenne. Livrables attendus Rapport d'étude exhaustif : Incluant l'analyse documentaire, le compte-rendu des interviews et l'analyse des risques/dépendances. Scénarios techniques : Présentation d'au moins deux scénarios distincts avec leurs enveloppes budgétaires respectives (approche coût/bénéfice). Support de restitution : Présentation synthétique pour arbitrage auprès de la direction et des équipes techniques client Indicateurs de Performance (KPIs) Pertinence et faisabilité des scénarios budgétaires proposés. Profondeur de l'analyse des risques identifiés lors de la revue de topologie. Qualité de l'adhésion des équipes client lors de la restitution finale. Localisation : Paris sur site et remote Mission de 10 jours Anglais : Professionnel
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
Architecte Solution Cloud-Native

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
450-530 €
Paris, France
Contexte de la mission Au sein du département Urbanisations et Applications de la Direction des Systèmes d'Information (DSI) de notre groupe audiovisuel français, nous gérons une quarantaine d'applications couvrant divers domaines, tels que la planification, l'optimisation des ressources, la gestion des incidents, et bien d'autres encore. Avec la transition de nos infrastructures IT vers le Cloud, il est devenu essentiel de faire évoluer nos modèles d'architectures logicielles afin de répondre efficacement aux besoins des différentes directions métiers. Nous recherchons une expertise en architecture solution pour travailler en étroite collaboration avec notre architecte d'entreprise. Cette mission est cruciale pour assurer l'alignement de nos projets IT avec les exigences fonctionnelles et l'écosystème de France Télévisions. La personne retenue devra proposer des modèles d'architectures logicielles Cloud-Native et en assurer la mise en œuvre. Objectifs et livrables Moderniser nos infrastructures IT afin de garantir une meilleure efficacité de nos projets. Proposer des modèles d’architectures logicielles Cloud-Native adaptés à nos besoins spécifiques. Piloter la mise en œuvre des principes d'architecture au sein des projets en cours. Collaborer avec les équipes projets, Cloud, sécurité, réseaux et exploitation pour concevoir des architectures sur mesure. Fournir des modèles et templates de développement, notamment à travers GitLab-CI. Accompagner et conseiller les équipes projet lors de l'implémentation des architectures. Superviser les développements pour assurer leur cohérence avec le modèle architectural défini. Assister l'Architecte d'Entreprise dans les travaux de la Design Authority et déployer ces architectures sous forme de standards et normes de développement.
CDI

Offre d'emploi
Data Engineer GCP

K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)

48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
Freelance
CDI

Offre d'emploi
Consultant Data / BI – SQL / ETL / Power BI (H/F)

CITECH
Publiée le
Data analysis

6 mois
40k-50k €
350-390 €
Nancy, Grand Est
CITECH recrute ! 👌 Vous souhaitez mettre vos compétences Data & Business Intelligence au service d’un environnement technique structuré et orienté données ? Nous recherchons un Consultant Data / BI (H/F) pour intervenir au sein d’un environnement décisionnel exigeant, dans le cadre du renforcement d’une équipe Data travaillant sur des sujets de reporting, exploitation de données et data marts . Vous intégrerez une équipe technique existante et collaborerez étroitement avec les équipes métiers et data afin de concevoir et faire évoluer les solutions de reporting décisionnel. Description du poste Au sein d’un environnement data structuré, vos principales responsabilités seront : 🔹 Concevoir, développer et maintenir des reportings décisionnels 🔹 Développer des rapports et indicateurs BI 🔹 Analyser les besoins métiers et proposer des solutions de reporting adaptées 🔹 Développer et optimiser des requêtes SQL / PL-SQL 🔹 Participer à la conception, à l’alimentation et à l’exploitation de data marts 🔹 Contribuer à l’ amélioration de la qualité, de la fiabilité et de la performance des données 🔹 Assurer la documentation des développements et des reportings réalisés
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
5720 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous