Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory
Votre recherche renvoie 56 résultats.
Offre d'emploi
Consultant MS BI Power BI h/f
MGI Consultants
Publiée le
DAX
Microsoft Power BI
Microsoft SSIS
36 mois
Paris, France
Pour notre client, grand compte dans le secteur de l’immobilier, vous rejoindrez l'équipe BI pour prendre en charge l'évolution et la maintenance de la plateforme décisionnelle, avec une forte composante de migration vers les outils Cloud (Azure Data Factory) et de modernisation des outils de reporting (Power BI).. Vos missions sont donc les suivantes : 1. Développement et Intégration de Données (ETL) · Migration active des packages d'intégration de données existants de SSIS (SQL Server Integration Services) vers la plateforme Cloud Azure Data Factory (ADF). · Conception et développement de nouveaux flux d'intégration de données sur la plateforme ADF. · Assurer la maintenance corrective des flux SSIS existants. 2. Reporting et Visualisation (Power BI) · Analyser et comprendre les besoins métiers détaillés afin de proposer les solutions de reporting adéquates. · Réaliser des maquettes et prototypes pour valider l'expérience utilisateur (UX) et la pertinence des futurs rapports. · Migration et/ou ré-écriture des rapports existants développés sous SSRS (SQL Server Reporting Services) vers l'outil Power BI. · Développer de nouveaux rapports et tableaux de bord performants sous Power BI. · Comprendre le modèle sémantique sous-jacent pour l'écriture de requêtes et de mesures complexes en DAX.
Mission freelance
Data Engineer Senior / Data Product Analyst
Signe +
Publiée le
Microsoft Power BI
24 mois
370 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte du poste Dans un contexte industriel et data-driven, le poste vise à renforcer la capacité de l’entreprise à exploiter ses données pour améliorer le pilotage des activités, optimiser les processus et créer de la valeur métier. Le profil interviendra comme référent data opérationnel, à l’interface entre les équipes métiers et les équipes techniques, dans des conditions industrielles exigeantes. Profil recherché Profil autonome avec au moins 5 ans d’expérience en data engineering Forte capacité d’analyse business et de compréhension desseux des enjeux métiers Capacité à concevoir, développer et opérer des solutions data de bout en bout Aisance dans un rôle d’interface entre équipes métiers et équipes techniques Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et d’identifier les leviers de création de valeur Accompagner les équipes métiers dans le développement, le déploiement et l’exploitation des solutions data Être le référent technique de la solution, avec une maîtrise fine des données manipulées Agir comme point de contact privilégié des équipes métiers pour les sujets liés à l’exposition, à l’exploitation et à la valorisation des données industrielles Garantir la mise à disposition de données fiables, compréhensibles et exploitables Principaux résultats attendus Identification, capture et sélection des données pertinentes pour répondre aux besoins des utilisateurs Optimisation du temps, des ressources et des outils nécessaires à la gestion et à l’analyse des données Mise à disposition des données sous des formats accessibles et exploitables via des visualisations adaptées Production de recommandations et lignes directrices permettant aux métiers de créer de la valeur Optimisation des offres, services ou processus grâce aux analyses et évaluations réalisées Application et respect des règles du groupe en matière d’éthique et de gouvernance des données Présentation et promotion des fonctionnalités des produits data afin de faciliter leur adoption et leur maintenabilité Réalisation de tests conformes à la stratégie de test définie Maintien à jour du catalogue des produits data (datasets) Mise à disposition de kits de formation et d’outils à destination des utilisateurs Compétences fondamentales en Data Engineering Modélisation de données Modèles relationnels Modèles dimensionnels Data Vault ETL / ELT Conception et optimisation de pipelines robustes Gestion des dépendances et de l’industrialisation Qualité et gouvernance des données Data lineage Contrôles de qualité des données Catalogage et gestion des métadonnées Architecture data Compréhension des architectures modernes (Data Lakehouse, Data Mesh, etc.) Langages de programmation SQL avancé Python / PySpark avancé Outils et technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps
Offre d'emploi
Urbaniste SI H/F
FED SAS
Publiée le
55k-60k €
Versailles, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Versailles un Urbaniste SI H/F dans le cadre d'un CDI. Sous la responsabilité du DSI, l'urbaniste SI propose, gouverne et optimise le système d'information à travers une vision technologique, d'interopérabilité, d'urbanisation et d'engagement de service du système d'information. Son ambition primaire est de garantir l'agilité, la maintenabilité, la disponibilité, la performance, la sécurité et la scalabilité du SI en fonction des enjeux du Groupe. Il aura cette capacité à fournir ces différentes visions sous différents angles (court terme, long terme, cout de possession, obsolescence, valeur métier…) Il travaillera en étroite collaboration avec l'architecte fonctionnelle et l'ensemble des équipes SI pour fournir les différentes trajectoires attendues, accompagner les projets (SI et métier) et mener à bien son activité. L'urbaniste SI aura les missions et les responsabilités suivantes : Architecture technique : Concevoir et maintenir l'architecture technique globale du SI. Définir les standards et les référentiels technologiques à utiliser dans l'entreprise. Assurer la cohérence et l'interopérabilité des différentes composantes techniques du SI. - Optimisation du SI : Analyser et optimiser les performances du SI. Proposer des solutions pour améliorer la scalabilité et la résilience du système (yc obsolescence). Évaluer et intégrer de nouvelles technologies pour renforcer les capacités du SI . Optimiser le cout de possession du SI en gouvernant et en challengeant les différents contrats. S'assurer de posséder un SI autonome et indépendant (dépendances, compétences et technologies - Gestion des évolutions technologiques : Effectuer une veille technologique constante pour identifier les innovations pertinentes. Proposer des scénarios d'évolution technologiques. Évaluer l'impact des nouvelles technologies sur l'architecture existante. Gérer les risques liés aux technologies et applications techniques. - Collaboration et communication : Travailler en étroite collaboration avec les équipes d'exploitation et de développement. Être le garant des choix technologiques en animant une démarche de douane. Communiquer efficacement sur les choix d'architecture technique auprès des parties prenante. Communiquer et porter l'éveil de la DSI sur les technologies émergentes - Sécurité et conformité : Collaborer avec les équipes de sécurité pour garantir la robustesse de l'architecture. Veiller à la conformité de l'infrastructure avec les normes et réglementations en vigueur. Mettre en place des mécanismes de protection des données et de continuité d'activité. Piloter l'engagement du système d'information - Environnement Microsoft: Windows 2016 à 2022, Windows 11, Active Directory, DNS, DHCP, WSUS, DFS, SFTP, Office 365 - AzureAD, Exchange, Sharepoint, Teams etc. - Environnement Linux : RedHat Infrastructure : Virtualisation (VMWare, VSAN, Dell VxRail), Supervision (Centreon), Ordonnancement (VTOM), Sauvegarde (Dell IDPA/Avamar), Technologies applicatives : PHP, Oracle, Azure Data Factory, PowerBI, Drupal Progiciels majeurs : SalesForce, SAP, FCC
Mission freelance
Consultant MSBI SSAS
STHREE SAS pour HUXLEY
Publiée le
18 mois
600 €
75001, Paris, Île-de-France
1. Modernisation de l'architecture Migrer le cube SSAS Multidimensional actuel vers un modèle SSAS Tabular Optimiser les modèles de données et les performances Adapter et migrer les flux d'intégration de données existants sous SSIS Refondre et migrer les rapports sous SSRS Déployer la solution complète sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.) 2. Améliorations fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par la Finance, les Ventes et autres parties prenantes métier Améliorer la logique métier existante et les règles de calcul Intégrer de nouvelles sources de données et étendre le modèle de données selon les besoins 3. Mise en oeuvre d'un système d'alerting Définir les événements métier devant déclencher des alertes automatiques Développer un mécanisme d'alerte automatisé (emails, tableaux de bord, notifications) Assurer une intégration fluide au sein de l'écosystème existant 4. Run & Support quotidien Assurer le support de niveau 2/3 et ses workflows de données Diagnostiquer les incidents et garantir la fiabilité du système Collaborer étroitement avec les utilisateurs finaux pour comprendre et résoudre les problématiques
Offre d'emploi
Senior Développeur CUBE / SSAS - SSIS - SSRS
emagine Consulting SARL
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
Île-de-France, France
La migration de SRManager d’un modèle SSAS multidimensionnel vers un modèle Tabulaire ; La migration de la plateforme vers Microsoft Azure ; L’enrichissement fonctionnel de l’outil, incluant de nouveaux indicateurs et métriques à destination des utilisateurs métiers ; La mise en place de fonctionnalités d’alerting basées sur des événements prédéfinis (dépassement de seuils, anomalies, problèmes de données, etc.) ; Le support opérationnel au quotidien de l’outil. Le consultant interviendra au sein de l’équipe SCIS (Sales, Communication & Investment Solutions), basée à Paris. Responsabilités principales 1. Modernisation de l’architecture SRManager Migrer le cube actuel SSAS multidimensionnel vers un modèle SSAS Tabulaire ; Optimiser les modèles de données et les performances ; Adapter et migrer les flux d’intégration de données existants sous SSIS ; Reconcevoir et migrer les rapports SSRS ; Déployer l’ensemble de la solution sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.). 2. Évolutions fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par les équipes Finance, Ventes et autres parties prenantes métiers ; Améliorer la logique métier existante et les règles de calcul ; Intégrer de nouvelles sources de données et faire évoluer le modèle de données si nécessaire. 3. Mise en place d’un système d’alerting Définir les événements métiers devant déclencher des alertes automatiques ; Développer un mécanisme d’alerting automatisé (emails, tableaux de bord, notifications) ; Assurer une intégration fluide au sein de l’écosystème SRManager existant.
Mission freelance
Proxy PO RUN - Snowflake + Power BI
FF
Publiée le
Microsoft Power BI
Snowflake
1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Offre d'emploi
Ingénieur Cloud Azure confirmé
SARIEL
Publiée le
Architecture ARM
Azure
DevOps
12 mois
50k-70k €
400-530 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un INGENIEUR CLOUD AZURE – Confirmé (4-10 ans) Objectif global : Participer au déploiement des projets data du client Contrainte forte du projet Maitrise de la plateforme Cloud Microsoft Azure Les livrables sont Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Description détaillée Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du client En tant qu'Ingénieur DevOps, votre mission principale sera de participer au déploiement des projets data du client. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du client sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir De formation supérieure en informatique, vous justifiez d’une expérience de 4-10 ans dans un contexte Data. Vous disposez des connaissances sur les outils et méthodologies suivants : -Cloud Azure -Infrastructure as a code (ARM, YAML) -Intégration et déploiement continu (Git, Azure DevOps) -Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI -Services Web : Azure FunctionApp, Azure WebApp -Micro-services/containers (AKS) -Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
56 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois