Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 88 résultats.
Freelance
CDI

Offre d'emploi
Data Analyst Microsoft H/F

OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric

1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Freelance
CDI
CDD

Offre d'emploi
Consultant BI / Data Analyst – ALM / Risque de liquidité

RIDCHA DATA
Publiée le
Data Lake
Data Warehouse
Microsoft Power BI

1 an
40k-45k €
340-480 €
Paris, France
🔹 Contexte : Dans le cadre du renforcement des capacités d’analyse et de pilotage des risques, un acteur majeur du secteur bancaire recherche un consultant BI / Data Analyst pour intervenir au sein de l’équipe ALM / Gestion de la Liquidité. Cette équipe est en charge de : La conformité réglementaire des ratios de liquidité L’anticipation des besoins de financement L’optimisation des ressources financières Le suivi des KPI liés à la liquidité La coordination avec les équipes métiers (Trésorerie, Risques, Finance…) 🔹 Détails de la mission : Démarrage : 15/04/2026 Durée : 12 mois Localisation : Paris (75) Télétravail : 2 jours / semaine 🔹 Missions principales : Conception de dashboards BI pour le suivi des ratios de liquidité Réalisation d’analyses ad-hoc Mise en place d’un portail BI centralisant les données de liquidité Gestion de la data visualisation avancée (drill-down, multi datasets) Optimisation des performances des interfaces (GUI) Participation à la modélisation des données Documentation technique et formation des utilisateurs 🔹 Environnement technique : Outils BI : Power BI / Tableau / Qlik Data : Data warehouse / Data lake Langages : Python / R (souhaité)
CDI
Freelance

Offre d'emploi
Senior Solution Architect H/F

OBJECTWARE
Publiée le
Cybersécurité
Data Warehouse
TOGAF

1 an
80k-90k €
500-600 €
Luxembourg
Nous recherchons pour l’un de nos clients spécialisés dans le domaine de l’assurance un Senior Solution Architect H/F au Luxembourg. Vos missions seront les suivantes : 1. Architecture de Solution pour les projets du client Concevoir des architectures de solution end-to-end : applicative, data, technique et intégration. Traduire les besoins métiers en solutions techniques concrètes alignées avec les standards du Groupe. Définir les exigences non fonctionnelles : scalabilité, performance, sécurité, résilience, conformité. Produire la documentation d’architecture : dossiers de solution, diagrammes C4, vues d’intégration, spécifications d’interfaces. Garantir la conformité aux principes directeurs d’architecture et aux patterns recommandés. Participer aux choix de technologies, frameworks et patterns (cloud-native, microservices, API-first, IA augmentée…). 2. Contribution à la Gouvernance d’Architecture Participer activement aux revues de solution et aux instances de gouvernance (Architecture Review Board). Assurer la préparation, présentation et validation des dossiers d’architecture. Contribuer à la définition et mise à jour des principes, standards, garde-fous et patterns d’architecture. Intégrer les enjeux de cybersécurité, IA, cloud et durabilité dans les choix de conception. 3. Support transverse et alignement avec l’Architecture d’Entreprise Collaborer étroitement avec les architectes d’entreprise pour assurer cohérence, harmonisation et évolution du paysage IT. Proposer des orientations et trajectoires d’évolution (modernisation, rationalisation, migration cloud…). Assurer l’intégration et la contribution au référentiel d’architecture et au Tech Radar. 4. Innovation et IA Engineering Assurer une veille technologique active sur les architectures cloud, API-centric, data-centric et IA engineering. Évaluer l’apport des solutions d’IA émergentes (agents autonomes, RAG, MCP…) dans les patterns d’architecture. Contribuer à l’évolution de la pratique d’architecture-as-a-service.
CDI

Offre d'emploi
Consultant BI

Eversa
Publiée le
Azure Synapse
Data Warehouse
Microsoft Fabric

40k-59k €
Île-de-France, France
Eversa recherche un Consultant BI confirmé à senior en CDI pour intervenir sur des sujets de modélisation et d’architecture décisionnelle au sein d’un environnement data structuré et en évolution. 🎯 Vos missions Conception et modélisation de Data Warehouse (schémas en étoile / flocon) Définition et optimisation des modèles de données décisionnels Développement et optimisation SQL Intervention sur des environnements Azure (Synapse Analytics) Participation aux évolutions vers Microsoft Fabric Collaboration étroite avec les équipes métiers et techniques
Freelance
CDI

Offre d'emploi
Data Product Manager – CRM & Customer Knowledge

KP2i
Publiée le
BI
Confluence
CRM

1 an
40k-45k €
400-720 €
Île-de-France, France
Transformation Data & Marketing – Environnement internationalContexte Grand groupe international en forte transformation digitale recherche un(e) Data Product Manager pour piloter des initiatives stratégiques liées à la connaissance client et à la performance CRM. Rattaché(e) à une organisation Data en mode Tribe / Feature Teams, le poste est au croisement des équipes Marketing, CRM, Produit et Data Engineering. L’objectif est de structurer et industrialiser des produits data à fort impact business, tout en sécurisant des chantiers de transformation majeurs. Finalité du poste Piloter des produits data orientés connaissance client et activation CRM afin de : Améliorer la performance e-commerce Optimiser la valeur client Renforcer la qualité et l’exploitabilité des données marketing Sécuriser des programmes de transformation Martech Missions principales1. Pilotage d’initiatives stratégiques Contribuer au cadrage de programmes structurants liés à la connaissance client Industrialiser les audiences prioritaires et structurer les signaux comportementaux Améliorer la couverture et la qualité de la base contactable Mettre en place des mécanismes de mesure de valeur incrémentale Piloter une migration de plateforme marketing automation (refonte des flux, modèles de données, segments, gouvernance) 2. Coordination transverse Animer les instances de pilotage (comités, ateliers de priorisation, steering committees) Aligner les visions business, produit et technique Assurer la fluidité des échanges entre CRM, Marketing, Data et Engineering Clarifier les rôles et responsabilités (RACI) 3. Pilotage produit & delivery Co-construire les roadmaps en collaboration avec les Product Owners Prioriser selon l’impact business et la création de valeur Suivre les jalons, dépendances et risques Garantir la qualité et le respect des délais Participer aux rituels agiles (PI Planning, Sprint Reviews) 4. Reporting & communication Assurer un reporting régulier auprès des sponsors et du management Préparer les supports de pilotage (roadmap, bilans, comités stratégiques) Communiquer de manière claire et pédagogique sur les enjeux data
CDI

Offre d'emploi
Responsable Master Data (H/F) - 93

Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)

Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Freelance
CDI

Offre d'emploi
Consultant pour l'intégration d'une nouvelle entité dans le Data Warehouse

R&S TELECOM
Publiée le
Microsoft Access
Qlik
Qlik Sense

12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission Dans le cadre de la trajectoire de rationalisation et de mutualisation du dispositif décisionnel, le groupe s’appuie sur le Data Warehouse Groupe comme socle central de consolidation, de fiabilisation et de mise à disposition des données décisionnelles, ainsi que sur des restitutions communautaires partagées. L’intégration d'une nouvelle entité dans le Data Warehouse Groupe et dans les usages décisionnels groupe constitue une étape structurante de cette trajectoire. Cette intégration vise à sécuriser : La qualité des données migrées (cohérence, complétude, exactitude), La justesse des paramétrages tarifaires Auto et MRH, L’exploitation décisionnelle communautaire via des restitutions Qlik partagées. Dans ce contexte, le Groupe recherche un(e) Consultant(e) pour accompagner l’entité en question dans son intégration au sein de ce système d’information décisionnel groupe. Objectifs et livrables Principaux volets de la mission Volet 1 - Analyse et qualité des données Le consultant interviendra sur : L’analyse de la qualité des données déjà chargées (contrôles de cohérence, complétude, détection de valeurs aberrantes) La comparaison des agrégats clés (primes, sinistres, contrats, résiliations) avec les sources de référence L’identification des écarts et anomalies La contribution à la définition et au suivi d’un plan de remédiation Volet 2 - Traitements et requêtes SAS Les travaux incluent : L’analyse et la mise à jour des programmes SAS existants L’adaptation des traitements pour intégrer des spécificités métier spécifiques La sécurisation des chaînes de traitement (intégration de contrôles, traçabilité, reproductibilité) Le support aux simulations tarifaires réalisées dans des outils externes (SAS ou équivalent) Volet 3 - Restitutions et développements Qlik Le consultant contribuera à : L’adaptation des tableaux de bord existants Le développement de nouvelles restitutions Qlik dédiées, si nécessaire La fiabilisation des référentiels utilisés dans les processus décisionnels Organisation et gouvernance Le consultant interviendra en étroite collaboration avec : Les équipes de pilotage du projet Les équipes IT et décisionnelles du système d’information central Les équipes métiers et data dédiées au périmètre concerné Il s’intégrera aux instances de gouvernance en place : Comités de pilotage projet Groupes de travail thématiques (qualité des données, tarification, suivi d’activité) Transmission d’un reporting régulier sur l’avancement et les risques identifiés
Freelance

Mission freelance
Chef de projet BI

Comet
Publiée le
Data Warehouse
Databricks
DAX

3 mois
400-610 €
Île-de-France, France
Contrainte forte du projet : Connaissance Power BI, MOA, modélisation datawarehouse Compétences techniques : Modélisation datawarehouse - Expert - Impératif Power BI - Expert - Impératif Gestion de projet - Expert - Impératif MOA - Expert - Impératif Connaissances linguistiques : Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée : Dans le cadre de la modernisation de notre stack décisionnelle, nous lançons un projet d'envergure visant à migrer l'ensemble de notre écosystème SAP BusinessObjects vers Microsoft Power BI. Nous recherchons un(e) Chef de Projet capable de piloter cette transition stratégique, de la phase de cadrage jusqu'à l'adoption finale par les métiers. Les missions : Cadrage : Inventorier l'existant (Univers, rapports WebI), identifier les rapports critiques à migrer, ceux à supprimer et ceux à optimiser. Pilotage de la Migration : Définir le planning, gérer le budget, coordonner les ressources techniques (Analytics Engineers, développeur Power BI) et assurer le suivi des jalons. Conception de la Cible : Superviser la modélisation des nouveaux jeux de données (Datawarehouse, Datasets) et la création des dashboards sur Power BI Service. Gouvernance : Mettre en place les bonnes pratiques de développement, de sécurité et d'administration de la plateforme Power BI. Accompagnement au Changement : Animer les ateliers avec les utilisateurs métiers, rédiger les documentations et assurer la formation des utilisateurs. Profil recherché : Une forte expertise sur la BI est impératif ( modélisation d'un datawarehouse, méthode d'historisation, exploration de la donnée) Maîtrise des langages SQL et DAX est indispensable. Maitrise de databriks ou d'un outil équivalent (SQL Server, Snowflake). Connaissance BO et du développement de rapport. Maitrise du cycle en V et de la méthode Scrum. Pédagogie, esprit d'analyse, et capacité à traduire des besoins métiers complexes en solutions techniques simples sont attendus pour ce poste. Définition du profil : Il définit, met en oeuvre et conduit un projet BI dans le but d'obtenir un résultat optimal et conforme aux exigences métiers formulées et validées par ou pour le commanditaire en ce qui concerne la qualité, les performances, le coût, le délai et la sécurité.
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Freelance

Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)

Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud

6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Freelance
CDI

Offre d'emploi
Data Integration Engineer (ETL Informatica) (F/H)

Argain Consulting Innovation
Publiée le
Informatica
Qlik
SQL

2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée en intégration de données afin de contribuer à l’alimentation et à l’évolution du Data Warehouse et des différents datamarts métiers. Principales missions Accompagnement des métiers dans l’expression des besoins liés aux flux de données et participation aux phases de recette. Analyse des sources, modélisation et conception des traitements d’intégration dans le respect des bonnes pratiques BI. Développement, optimisation et maintenance de flux ETL sous Informatica. Mise en qualité, transformation et préparation des données pour les usages décisionnels. Participation aux travaux d’industrialisation, documentation et amélioration continue de la chaîne de traitement. Contribution au support et au suivi des traitements batch (diagnostic et résolution d’incidents).
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Conception
Informatica
Power BI Desktop

12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Freelance

Mission freelance
Développeur BI (Rennes) H/F

LeHibou
Publiée le
DBT
Talend

3 mois
300-400 €
Rennes, Bretagne
Notre client dans le secteur Assurance recherche un/une Développeur BI H/F Description de la mission: Nous recherchons un(e) Freelance pour une mission d'expertise en développement BI. Dans le cadre d’un projet stratégique de refonte décisionnelle, notre client — un acteur majeur du secteur de l’assurance — recherche un Développeur BI pour renforcer son équipe Data. La mission s’inscrit dans un programme long terme visant à remplacer l’ancien Data Warehouse par une nouvelle modélisation DataVault , destinée à alimenter les reporting des actuaires, notamment sur les sujets de prévoyance. Le Développeur BI interviendra au sein de l’équipe Data et aura pour missions principales : Concevoir, développer et maintenir des Data Marts liés au produit sur lequel travaille Adèle. Participer activement à la mise en place et à l’évolution de la nouvelle architecture DataVault . Contribuer à l’alimentation des reporting métiers, en particulier pour les équipes d’actuaires. Collaborer avec les équipes internes (dont Othman à Rennes) et échanger avec les actuaires pour affiner les spécifications. Garantir la qualité, la performance et la fiabilité des pipelines de données.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

88 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous