Find your next tech and IT Job or contract Azure Data Factory
Job Vacancy
Data Engineer Azure Data Factory
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Contractor job
Data Engineer confirmé
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),

Job Vacancy
Manager Data / Lead Data
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.

Contractor job
Data Analyst Azure Data Factory
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).

Job Vacancy
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS (H/F)
ACCROCHE SI TU SAIS QUE LES DONNÉES BRUTES NE DEMANDENT QU’À ÊTRE AFFINÉES, VIENS SAISIR CETTE OPPORTUNITE ... CE QUE TU RECHERCHES : Piloter des projets data et big data ambitieux Travailler sur des architectures innovantes et des volumes de données massifs Relever des défis techniques et fonctionnels pour transformer les données en valeur Accompagner les métiers dans leur transformation Rejoins une équipe où ton expertise en gestion de projets data sera un atout Au sein d’un acteur majeur du secteur , tu participeras : Recueil et analyse des besoins métiers, tu réaliseras Conception et pilotage des architectures data et big data, tu assureras Gestion des phases de développement et d’intégration, tu coordonneras Mise en place de pipelines de données performants, tu garantiras Industrialisation et sécurisation des traitements, tu superviseras Accompagnement des équipes techniques et métiers, tu animeras Veille technologique et anticipation des évolutions, tu effectueras QUI TU ES : Diplômé(e) en informatique, data science ou équivalent Tu justifies d’une expérience de ans minimum en gestion de projets data et big data Maîtrise des plateformes Expertise en outils de gestion et traitement des données AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Analytique, tu sais exploiter les données pour prendre des décisions éclairées Méthodique, tu structures et pilotes les projets avec rigueur Pragmatique, tu proposes des solutions adaptées aux enjeux métier Communicant(e), tu sais vulgariser les concepts data auprès des différentes équipes Autonome, tu es capable de gérer plusieurs projets en parallèle Visionnaire, tu anticipes les évolutions des technologies big data Orienté(e) performance, tu optimises les infrastructures pour garantir efficacité et scalabilité

Job Vacancy
Data Engineer
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Contractor job
Tech Lead DATABRICKS (Lyon)
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Contractor job
Dev' AZURE DATABRICKS
Bonjour, Pour le compte de l'un de mes clients parisiens, pour un démarrage dès début octobre, je suis à la recherche d'un développeur Azure - Databricks. La centrale d'achats de mon client mène un projet de datalake pour centraliser, trier & exploiter les données fournisseurs et clients sous une dimension européene. Dans ce cadre là, il est recherché sur Paris d'un développeur Azure Databricks avec toute la stack azure maitrisée. Curiosité, envie d'apprendre & apétence pour l'IA mandatory.
Contractor job
Technical Leader (Lyon)
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissance à minima fonctionnelle des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Contractor job
Responsable d’Applications Data
Responsable d’Applications Data Localisation : Île-de-France Durée : mission longue Langue : Français courant (impératif) 🎯 Objectif global Piloter et sécuriser les évènements de production au sein du Datalab. ⚙️ Contexte et responsabilités Le/la Responsable d’Applications assure et coordonne la maintenance corrective et évolutive des applications dont il/elle a la charge. Il/elle est garant(e) : De la qualité de service dans le respect des contrats (support, qualité, sécurité…). Du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité des applications. De la relation entre les équipes techniques et les métiers , en lien avec le Responsable SI Métier et le Chef de Projet. Le périmètre couvre l’ensemble des éléments applicatifs : programmes, données, paramétrages, services exposés (API), infrastructures techniques, interfaces et flux interapplicatifs. 📦 Livrables Analyse des incidents pour en déterminer les causes et les solutions. Documentation et suivi des évolutions. Reporting sur la qualité de service et les indicateurs de performance. 🧠 Compétences techniques requises CompétenceNiveauCaractèreMéthode ITIL (gestion incidents, problèmes, changements)Expert Impératif Méthode AgileConfirmé Impératif Azure Data FactoryConfirméImportantDatabricks (Spark SQL, Scala)ConfirméImportantOutils ITSM (ServiceNow ou équivalent)ConfirméApprécié 🧩 Missions détaillées Conception et évolution du SI Être l’interlocuteur principal des métiers et de la DOSI pour la vie courante des systèmes. Gérer et prioriser les demandes d’évolution. Participer aux cadrages et projets d’adaptation ou de refonte. Analyser les impacts fonctionnels et techniques sur les interfaces et applications connexes. Anticiper les montées de version et piloter les mises à jour en lien avec les éditeurs. Mise en œuvre et exploitation Piloter les évolutions applicatives depuis la conception jusqu’à la mise en service. Rédiger les spécifications fonctionnelles et techniques. Garantir la qualité des développements réalisés. Contribuer à la stratégie de recette et aux plans de tests (en lien avec la Test Factory). Superviser les livraisons de corrections en cas d’anomalies. Qualité et performance Appliquer les normes, méthodes et outils de référence du domaine. Maintenir la documentation et les connaissances applicatives. Produire et suivre les indicateurs de performance et les SLA. Évaluer et améliorer en continu le niveau de service. Communication et coordination Conseiller les utilisateurs sur l’utilisation du système applicatif. Assurer la coordination avec la production informatique. Participer activement à la gouvernance et aux échanges inter-domaines. 💡 Soft skills Rigueur et sens de l’analyse. Force de proposition et autonomie. Esprit d’équipe et excellentes qualités relationnelles. Bonne capacité à comprendre des sujets métiers variés.
Job Vacancy
RESPONSABLE D'APPLICATION (H/F) Confirmé (4-10 ans)
Nous recrutons un Responsable d’Application (H/F) – Confirmé Mission principale : 1. Conception et évolution du Système d’Information Être l’interlocuteur privilégié des métiers et de la DOSI pour la vie courante des systèmes. Être responsable de l’évolution des applications sous sa responsabilité. Gérer et prioriser les demandes, piloter les lots d’évolutions en lien avec les parties prenantes SI. Participer aux cadrages et projets d’adaptation et d’évolution du SI. Réaliser les analyses fonctionnelles et identifier les impacts sur les interfaces et systèmes connexes. Suivre les roadmaps des éditeurs, analyser les impacts, anticiper et piloter les montées de version. 2. Mise en œuvre du Système d’Information Conduire les évolutions applicatives depuis la conception jusqu’à la mise en production. Rédiger les spécifications fonctionnelles et techniques. Garantir la qualité des développements réalisés. Contribuer à la stratégie de recette sur le périmètre applicatif. Définir, avec les équipes métiers et test, les plans de tests nécessaires à la validation. Piloter les livraisons correctives en cas d’anomalies. 3. Qualité, performance et conformité Appliquer les normes, méthodes et outils de référence en vigueur. Garantir la capitalisation et la mise à jour des connaissances fonctionnelles et techniques. Assurer la gestion documentaire du périmètre applicatif. Produire et suivre les indicateurs de performance et de qualité de service. Suivre et garantir le respect des SLA définis contractuellement. Piloter les plans d’actions d’amélioration continue lorsque nécessaire. 4. Communication et accompagnement Assister et conseiller les utilisateurs sur l’usage des applications. Être l’interlocuteur privilégié de la production informatique sur son périmètre

Job Vacancy
Product Owner data
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.

Job Vacancy
Responsable d'applications RUN confirmé
Bonjour, Nous recherchons pour notre client basé en région parisienne un Responsable d’Applications – confirmé (4 - 10 ans d’expérience) Objectif : Piloter et sécuriser les évènements de production Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques méthode ITIL - Expert - Impératif méthode Agile - Confirmé - Impératif Azure Datafactory - Confirmé - Important Databricks - Confirmé – Important Description détaillée Responsable d'application au Datalab : Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. * Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. * Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. * Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. (*) On entend par « applications » : les programmes, les données, les paramétrages, les services exposés (API), les infrastructures techniques et les interfaces/flux inter applicatifs. Compétences requises : * Faire preuve de rigueur et être force de proposition * Savoir travailler en équipe et avoir de bonnes qualités relationnelles * Excellentes compétences techniques : Connaissance et application de la méthode ITIL (Gestion des incidents, problèmes, etc..) Connaissance et application de la méthode Agile Connaissance Azure Datafactory Connaissance Databricks (Spark SQL, Scala) Connaissance d'outils ITSM (Service Now ou équivalent) Données complémentaires Date de démarrage 03/11/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes nonw Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Job Vacancy
Développeur Senior BI / Data (MSBI / Azure Data Factory)
🎯 Contexte Nous recherchons un Développeur Senior BI / Data pour renforcer l’équipe Support Fund Management. Vous serez intégré(e) à l’équipe support et travaillerez en étroite collaboration avec les Business Analysts. 🔎 Missions Intégré(e) à l’équipe projet, vous serez en charge de : Participer au cadrage des solutions à implémenter. Développer les User Stories (US). Contribuer à la recette, l’UAT et la mise en production. Assurer la maintenance des applications. Rédiger la documentation technique. Améliorer en continu le modèle de développement. 🛠 Compétences recherchée Maîtrise des outils Microsoft BI (SQL Server 2019/2022, SSIS, SSRS). Maîtrise des bases de données relationnelles et SQL. Expérience avec Azure BI Data Factory. Compétences en Python, librairie Pandas appréciée. Bon niveau sur Azure DevOps. Expérience en Asset Management / finance de marché souhaitée. 📍 Localisation & Conditions Basé à Paris Démarrage : dès que possible

Contractor job
Scrum master Data H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Scrum master Data H/F à Paris, France. Les missions attendues par le Scrum master Data H/F : L’objectif est de mettre en place un cycle agile sur l’ensemble des activités de l'équipe de Dev du département et de piloter le délivery (jalon, budget, RAF fonctionnel, qualificiation des chiffrages, ...) ainsi que d'être le point d'entrée de l'équipe de dev dans les différentes instances. Le savoir être sur ce poste sensible est important puisque ce poste est une vitrine de la qualité du travail fait par l'équipe. Une rigueur d'exécution et une qualité de communication est nécessaire
Contractor job
Ingénieur Data - Nantes
Métier et Fonction Data Management Ingénieur Data Spécialités technologiques BI (Business Intelligence) Type de prestation Assistance Technique avec facturation au taux journalier Compétences requises Technologies et Outils : Azure Data Factory, Power BI Soft skills : Autonomie Langues : Anglais Description de la prestation Intégration dans l'équipe BI Entreprise pour répondre aux besoins des métiers tels que Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux. La mission consiste à moderniser l'architecture décisionnelle en migrant les packages SSIS vers Azure Data Factory (ADF) et à développer des pipelines cloud. Objectifs principaux : Migrer les traitements SSIS vers ADF en assurant performance, robustesse et conformité. Concevoir et développer des pipelines ADF pour la collecte, l’intégration dans l’entrepôt SQL Managed Instance ou Snowflake. Créer et maintenir des Data Flows ADF (nettoyage, enrichment, transformation). Mettre en place et gérer des triggers conditionnels pour orchestrer des traitements complexes. Optimiser les coûts et performances des modèles BI (Power BI, modèles sémantiques, DAX). documenter les développements et assurer la maintenance opérationnelle (MCO) de l'existant.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country