Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 854 résultats.
Freelance

Mission freelance
Product Owner Data (F/H)

Publiée le
Méthode Agile

12 mois
500-620 €
Paris, France
Contexte Le prestataire interviendra dans un environnement hybride, combinant : • des composants legacy à maintenir et à fiabiliser, essentiels au pilotage opérationnel actuel, • et des chantiers de refonte et de modernisation à conduire dans une logique produit et Data Mesh. La mission se déroule dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques produit au sein des équipes Data. Description Le prestataire assurera le rôle de Product Owner Data, en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Sa mission consistera à : • Conduire la refonte et la valorisation des données Ventes, depuis le cadrage des besoins métiers jusqu’à la livraison des Data Products, • Piloter la roadmap des produits data dans une logique produit et Data Mesh, garantissant gouvernance, qualité et exploitabilité, • Maintenir l’existant (legacy), en assurant la continuité de service et la fiabilité des indicateurs clés, • Collaborer avec le Product Manager et les autres PO Data pour aligner la vision, prioriser les besoins et assurer la cohérence transverse, • Animer les échanges avec les parties prenantes métiers, en mettant l’accent sur la valeur d’usage, les indicateurs de succès et la qualité des livrables. • Le prestataire participera également à la communauté de pratique Produit & Data, afin de partager les bonnes pratiques et contribuer à la montée en maturité collective. Livrables • Roadmap produit claire et priorisée (vision, jalons, backlog) • Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès) • Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation) • Pilotage et suivi des développements (agilité, cérémonies, reporting d’avancement) • Documentation consolidée (catalogue, dictionnaire, fiches produit, processus de gouvernance) • Reporting régulier sur l’avancement, les risques et les arbitrages à opérer
Freelance

Mission freelance
Data SSIS

Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

3 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data SSIS, et dans le cadre d'un projet de refonte du datawarehouse, les missions qui vous seront confiées seront : · Participation à la conception et mise en place d’un nouveau datawarehouse et de datamarts · Conception et développement des tables ainsi que des flux de données SSIS et scripts TSQL pour l’alimentation du datawarehouse · Rédaction des documentations projet notamment les spécifications techniques · Assurer le support de recette et les mises en production dans le respect des normes en vigueur
Freelance

Mission freelance
Data engineering

Publiée le
Amazon S3
Ansible
API

12 mois
400-470 €
Île-de-France, France
Télétravail partiel
Data engineering (2 profils identiques), pour concevoir, construire et gérer l’infrastructure AWS · Minimum de 4 ans d’expériences significative dans le type d’expertise demandé · Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT · Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME · Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME · Connaissance des langages de programmation et de Génie Logiciel (Python) : · Programmation Orientée Objet : MAITRISE · Connaissance et utilisation des Design Patterns standard : MAITRISE · Frameworks/Librairies de tests : MAITRISE · Observabilité applicative : CONFIRME · Mesures de performances : CONFIRME Expérience avec les bases de données SQL et Graph : CONFIRME · Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME Compétence des technologies de CI/CD et Infra as Code : Expérience du process GitFlow : MAITRISE Utilisation des commits sémantiques/feature branches : MAITRISE Mise en place de pipelines/jobs : CONFIRME Mise en place de process GitOps : CONFIRME Utilisation des concepts, modules et templates Teraform : MAITRISE Utilisation de Ansible : CONNAISSANCE Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE Expérience des services AWS suivants : IAM : mise en place de rôles/policies (CLI et Terraform) : CONFIRME S3 : gestion des buckets/cycle de vie des objets : MAITRISE Lambda : Déploiement de lambda utilisant des conteneurs sur ECR via Terraform. Déclenchement via Triggers S3/EventBridge. Optimisation de l’utilisation des ressources et du scaling : MAITRISE Secret Manager : Création et accès via Terraform. Gestion du cycle de vie : CONFIRME VPC & Security Groups : Compréhension des concepts réseaux et de sécurité : CONFIRME Une connaissance du service publique et des Médias est souhaitée .
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)

Publiée le
Architecture

3 mois
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
Freelance

Mission freelance
Mission Freelance – Data Analyst

Publiée le
Microsoft Power BI

1 an
400-590 €
Île-de-France, France
Télétravail partiel
Contribuer à la création et à l’exploitation du socle de données : Participer à l’audit des nouvelles sources de données disponibles dans le Datalake (GCP / BigQuery) . Intégrer et structurer ces données afin de renforcer la qualité, la fiabilité et l’exploitabilité du socle. Collaborer avec les équipes techniques pour garantir la cohérence et la performance de l’architecture Data. Développer et maintenir des dashboards stratégiques sous Power BI : Concevoir des tableaux de bord permettant de suivre les objectifs clés, les usages et les profils utilisateurs . Faire évoluer les dashboards existants en intégrant de nouveaux indicateurs ou en améliorant les calculs. Garantir la clarté, la pertinence et la valeur opérationnelle des visualisations fournies aux équipes métier et au management. Analyser en profondeur les profils et comportements des utilisateurs : Étudier les parcours des vidéonautes (programmes recrutants, fidélisants, engagement selon les canaux d’acquisition). Identifier les tendances de consommation par contenus, types d’écran et plateformes. Mesurer l’impact de la pression publicitaire , des nouvelles fonctionnalités ou de la distribution multi-partenaires sur l’expérience utilisateur. Produire des analyses permettant de mieux segmenter et comprendre les publics. Contribuer aux projets Data Science & Intelligence Artificielle : Participer aux initiatives Data Science visant à améliorer l’expérience utilisateur (recommandations, personnalisation, parcours fluidifiés). Apporter un support analytique pour l’optimisation des process internes (production, diffusion, marketing digital, monétisation). Collaborer avec les Data Scientists et les métiers pour transformer les insights en solutions concrètes et actionnables . Accompagner la diffusion et l’appropriation de la culture Data : Vulgariser les résultats et insights auprès des équipes non techniques. Contribuer à la montée en maturité des usages Data au sein de l’organisation. Proposer des axes d’amélioration et partager les bonnes pratiques en continu.
CDI

Offre d'emploi
Technicien Data Télécom

Publiée le

35k-40k €
75001, Paris, Île-de-France
Fed IT est un cabinet de recrutement dédié aux métiers de l'informatique, des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Nous accompagnons un Opérateur Télécom de Paris dans le recrutement de son futur Technicien Data Télécom. Le poste est à pourvoir en CDI à Paris. Le Technicien Data Télécom est rattaché au Service Technique Client de l'entreprise et sera chargé de l'analyse, du diganostic, du support et de la résolution d'incidents techniques clients, liés aux problèmes de transfert des données et de performance du réseau télécom. L'objectif est d'améliorer la qualité de service Voip Toip fournit aux clients. Les responsabilités principales : - Analyse et Diagnostic des incidents sur les équipements réseaux et opérateurs - Accompagner les clients dans la résolution des problèmes par téléphone ou mail - Rédiger la documentation technique associée. - Escalader auprès du service voix les incidents concernés.
CDI

Offre d'emploi
Développeur DATA - intermédiaire - CDI - Le Havre H/F

Publiée le

38k-42k €
76600, Le Havre, Normandie
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : Maintenir et faire évoluer les rapports décisionnels existants. Participer à l’industrialisation du process de production et de diffusion de la donnée. Collaborer avec les directions métiers (finance, exploitation, RH, opérations). Contribuer à la conception d’un modèle de données fiable et évolutif. Intervenir sur une application interne connectée au SI principal, utilisée à la fois pour exploiter et visualiser la donnée. L’environnement technique : SQL avancé : requêtes complexes, jointures, agrégations, optimisation, modélisation. Ruby ou, à défaut, forte appétence pour les langages orientés objet (et envie de s’y former). Applications internes interfacées avec le SI central. Collaboration directe avec les développeurs et les métiers, au sein d’une petite équipe Data resserrée . Vous, notre perle rare : Minimum 5 ans d’expérience sur un poste orienté Data / SQL / BI . Solide compréhension des problématiques liées à la donnée et au reporting. Capacité à apprendre vite dans un environnement fonctionnel complexe et passionnant. Esprit analytique, autonomie, curiosité et bon relationnel. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 38 000 - 42 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Développeur Data - Intermédiaire - freelance - Le Havre H/F

Publiée le

1 mois
350-450 €
76600, Le Havre, Normandie
Télétravail partiel
ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : Maintenir et faire évoluer les rapports décisionnels existants. Participer à l’industrialisation du process de production et de diffusion de la donnée. Collaborer avec les directions métiers (finance, exploitation, RH, opérations). Contribuer à la conception d’un modèle de données fiable et évolutif. Intervenir sur une application interne connectée au SI principal, utilisée à la fois pour exploiter et visualiser la donnée. L’environnement technique : SQL avancé : requêtes complexes, jointures, agrégations, optimisation, modélisation. Ruby ou, à défaut, forte appétence pour les langages orientés objet (et envie de s’y former). Applications internes interfacées avec le SI central. Collaboration directe avec les développeurs et les métiers, au sein d’une petite équipe Data resserrée . Vous, notre perle rare : Minimum 5 ans d’expérience sur un poste orienté Data / SQL / BI . Solide compréhension des problématiques liées à la donnée et au reporting. Capacité à apprendre vite dans un environnement fonctionnel complexe et passionnant. Esprit analytique, autonomie, curiosité et bon relationnel. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : Entre 350€ à 450€. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance
CDI

Offre d'emploi
Data Engineer – Azure / Snowflake / dbt

Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
CDI
Freelance

Offre d'emploi
Senior Data Engineer with Energy Market expertise, Brussels

Publiée le

Bruxelles, Bruxelles-Capitale, Belgique
For a large end client As part of the target architecture, BW/HANA, Databricks, and Dataiku platforms are central to data migration and transformation activities. Join the data governance operational team as a data expert responsible for maintaining, designing and optimizing data transformation and modeling processes using SAP BW, SAP HANA Studio, Databricks, and Dataiku. The goal is to ensure data quality, performance, and relevance for business needs. Responsibilities Develop and maintain complex data transformation and modeling flows using BW and HANA Studio (advanced modeling, development, optimization). Leverage Databricks for data storage, computation, and industrialization. Utilize Dataiku for data transformation, emphasizing visual recipes and custom plug-in development. Ensure data quality and integrity throughout the data lifecycle. Collaborate with other technical and functional stakeholders. Required Skills Strong expertise in SAP BW (modeling and development) and HANA Studio (modeling and development), as well as BODS. Advanced proficiency in Databricks and Dataiku, with demonstrated hands-on experience. In-depth knowledge of processes and data, specific to the Belgian energy market. Functional knowledge of SAP. Strong skills in SQL, Python. Analytical mindset, attention to detail, and teamwork capabilities. Qualifications University degree in Computer Science, Engineering, Mathematics, or related field. Minimum 7 years of experience in the energy market. Minimum 7 years of experience in SAP BW and SAP HANA Studio. Minimum 7 years of experience in Sql and Python Minimum 2 years of experience with Dataiku and Databricks. Languages Fluent English. French and Dutch will be a plus. Location and Period Brussels (minimum 2 days/week on-site). From December 2025 to end of 2027. Requirements Qualifications University degree in Computer Science, Engineering, Mathematics, or related field. Minimum 7 years of experience in the energy market. Minimum 7 years of experience in SAP BW and SAP HANA Studio. Minimum 7 years of experience in Sql and Python Minimum 2 years of experience with Dataiku and Databricks.
Freelance

Mission freelance
Data Engineer Palantir

Publiée le
PySpark
Python

3 mois
400-600 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :
Freelance

Mission freelance
Data Analyst pilotage opérationnel et financier

Publiée le
MySQL

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).
Freelance

Mission freelance
Data analyst  Tracking Specialist -Product analyst

Publiée le
Analyse

18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 4 ans et plus Métiers Fonctions : WEB Design, Marketing & Communication digitale, Analyst Spécialités technologiques : RGPD Compétences Technologies et Outils Google Analytics Google Tag Manager Nous sommes à la recherche pour un de nos clients d'un profil data analyst avec une expertise sur la mise en place de tag via GTM et le tracking de données via G4. MISSIONS Expertise recherchée : la rédaction des éléments de tracking, la recette de leur bonne implémentation ainsi que l’utilisation avancée de GTM (google tag manager) Le client est un grand groupe composés de différentes entreprises, les sites de certaines de ces entreprises ont subi des refontes nottemment sur des sujets de consentement (bannières RGPD) et les marques ont besoin de tracker de parcours utilisateurs/clients pour voir ce qui est performant ou non. Tâches procipales : - Integration des tags media - demande sur GTM - Création d'elements d e-tracking sur gA4 et contentsquare - Analyse des données
Freelance
CDI

Offre d'emploi
CHEF DE PROJET / DATA OFFICER F/H | LILLE (59)

Publiée le
Gestion de projet
Gouvernance
SQL

3 ans
10k-52k €
100-420 €
Lille, Hauts-de-France
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client pour piloter, coordonner et fiabiliser la gouvernance de la donnée dans un environnement complexe, multi-équipes et avec de forts enjeux réglementaires. À ce titre, vous serez en charge de : Gouvernance & Administration de la donnée Contribuer à la mise en œuvre et au respect des règles de gouvernance de la donnée Participer à la gestion des habilitations, des droits d’accès et de partage Garantir la cohérence et la qualité des données à travers les systèmes et processus Travailler en lien étroit avec les équipes métiers, Data Management, Sécurité et IT 2. Pilotage & Coordination Coordonner les projets Data impliquant de multiples parties prenantes (MOA, MOE, métiers, DSI) Assurer le suivi de la qualification fonctionnelle et le respect des jalons projets Organiser les comités de suivi et produire les livrables d’avancement Faire le lien entre les équipes techniques et les utilisateurs métiers 3. Analyse & Accompagnement Analyser les besoins fonctionnels et assurer la traduction métier/technique Effectuer des requêtes SQL / Vertica ponctuelles pour valider ou contrôler la donnée Identifier les axes d’amélioration sur la qualité, l’accès et l’usage des données Sensibiliser les équipes à la protection et à la valorisation de la donnée Environnement Technique : Data, gouvernance, gestion des habilitations et droits d'accès, gestion de projets, qualification fonctionnelle, planning, SQL, vertica Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Freelance
CDI

Offre d'emploi
Lead python et Data

Publiée le
Modèle Conceptuel des Données (MCD)
Modélisation
Pandas

2 ans
40k-60k €
400-600 €
Rueil-Malmaison, Île-de-France
Télétravail partiel
• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)
1854 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous