Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory à Paris
Votre recherche renvoie 21 résultats.
Mission freelance
AI Data Engineer (Fabric & Azure)
TAHYS RECRUITMENT SOLUTIONS
Publiée le
AI
Microsoft Fabric
12 mois
Paris, France
Contexte de la mission Nous recherchons un Data Engineer IA expérimenté , disposant d’une solide expertise pratique sur Microsoft Fabric , les services de données Azure et les pratiques modernes de data engineering. Le candidat idéal concevra, optimisera et maintiendra des pipelines de données scalables afin de soutenir des initiatives avancées en analytique et en IA/ML à l’échelle de l’organisation. Objectifs et livrablesResponsabilités clésData Engineering & Architecture Concevoir, développer et maintenir des pipelines de données scalables sur Microsoft Fabric (Data Factory, Dataflows, Lakehouse, Warehouse, OneLake). Développer des processus robustes d’ingestion, de transformation et d’orchestration des données à l’aide d’Azure Data Factory, Azure Databricks, Azure Synapse et Azure Functions. Mettre en œuvre et optimiser des architectures Delta Lake pour des données structurées et non structurées. Construire des produits de données réutilisables pour supporter les charges de travail en IA, machine learning et analytique. Intégration IA & Analytique avancée Collaborer avec les Data Scientists et les ML Engineers pour industrialiser les modèles via Azure Machine Learning, les expériences Data Science de Fabric ou Databricks. Préparer les jeux de données et réaliser le feature engineering adaptés aux workloads IA. Automatiser les workflows MLOps, la surveillance des modèles et les pipelines de déploiement. Gouvernance, Qualité & Sécurité Mettre en place des frameworks de qualité des données, d’observabilité, de monitoring et de traçabilité (lineage) à l’aide de Fabric et d’Azure Purview. Garantir la conformité avec les standards de gouvernance, de protection des données et de sécurité. Gérer les pipelines CI/CD pour le code data via Azure DevOps ou GitHub. Collaboration & Engagement des parties prenantes Collaborer avec les analystes métiers, product owners et experts métiers afin de comprendre les besoins et livrer des solutions data à forte valeur ajoutée. Maintenir la documentation des sources de données, modèles de données, pipelines et bonnes pratiques. Fournir un accompagnement technique et du mentorat aux développeurs juniors.
Offre d'emploi
Consultant MS BI Power BI h/f
MGI Consultants
Publiée le
DAX
Microsoft Power BI
Microsoft SSIS
36 mois
Paris, France
Pour notre client, grand compte dans le secteur de l’immobilier, vous rejoindrez l'équipe BI pour prendre en charge l'évolution et la maintenance de la plateforme décisionnelle, avec une forte composante de migration vers les outils Cloud (Azure Data Factory) et de modernisation des outils de reporting (Power BI).. Vos missions sont donc les suivantes : 1. Développement et Intégration de Données (ETL) · Migration active des packages d'intégration de données existants de SSIS (SQL Server Integration Services) vers la plateforme Cloud Azure Data Factory (ADF). · Conception et développement de nouveaux flux d'intégration de données sur la plateforme ADF. · Assurer la maintenance corrective des flux SSIS existants. 2. Reporting et Visualisation (Power BI) · Analyser et comprendre les besoins métiers détaillés afin de proposer les solutions de reporting adéquates. · Réaliser des maquettes et prototypes pour valider l'expérience utilisateur (UX) et la pertinence des futurs rapports. · Migration et/ou ré-écriture des rapports existants développés sous SSRS (SQL Server Reporting Services) vers l'outil Power BI. · Développer de nouveaux rapports et tableaux de bord performants sous Power BI. · Comprendre le modèle sémantique sous-jacent pour l'écriture de requêtes et de mesures complexes en DAX.
Mission freelance
Consultant MSBI SSAS
STHREE SAS pour HUXLEY
Publiée le
18 mois
600 €
75001, Paris, Île-de-France
1. Modernisation de l'architecture Migrer le cube SSAS Multidimensional actuel vers un modèle SSAS Tabular Optimiser les modèles de données et les performances Adapter et migrer les flux d'intégration de données existants sous SSIS Refondre et migrer les rapports sous SSRS Déployer la solution complète sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.) 2. Améliorations fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par la Finance, les Ventes et autres parties prenantes métier Améliorer la logique métier existante et les règles de calcul Intégrer de nouvelles sources de données et étendre le modèle de données selon les besoins 3. Mise en oeuvre d'un système d'alerting Définir les événements métier devant déclencher des alertes automatiques Développer un mécanisme d'alerte automatisé (emails, tableaux de bord, notifications) Assurer une intégration fluide au sein de l'écosystème existant 4. Run & Support quotidien Assurer le support de niveau 2/3 et ses workflows de données Diagnostiquer les incidents et garantir la fiabilité du système Collaborer étroitement avec les utilisateurs finaux pour comprendre et résoudre les problématiques
Mission freelance
Proxy PO RUN - Snowflake + Power BI
FF
Publiée le
Microsoft Power BI
Snowflake
1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
21 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois