Trouvez votre prochaine offre d’emploi ou de mission freelance Azure à Boulogne-Billancourt
Ce qu’il faut savoir sur Azure
Azure est la plateforme de cloud computing de Microsoft offrant une large gamme de services pour créer, déployer et gérer des applications. Sa scalabilité et sa flexibilité le rendent adapté aux entreprises de toutes tailles.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data engineer 5-8 ans
Les livrables : - Code Source - Documentation - KPI qualité Compétences techniques : - spark/databricks - Confirmé - Impératif - datafactory - Confirmé - Impératif - sql/scala - Confirmé - Impératif - Git - Confirmé - Impératif Pour accompagner la refonte du SI audiences et les impacts des projets transactionnels sur notre produit Tech Datahub, nous recherchons un(e) Data Engineer. Le SI audiences intègre, enrichit et expose les données d'audience aux différents consommateurs. Nous lançons une refonte/modernisation du SI et des différents outils métier internes afin de fiabiliser ses données et améliorer l’expérience métier. Nous souhaitons faire grandir notre équipe de développement pour accompagner ce programme avec une approche data centric. Mission : - Au quotidien, vous prenez en charge la conception et le développement de nouvelles pipelines Data en étroite collaboration avec les autres membres de l'équipe. Vous serez garant, avec les autres membres de l’équipe Tech, de la bonne réalisation et maintenance des différents outils du SI. - Vous travaillez également en transverse avec les autres équipes du Pôle pour garantir la réalisation des développements Datahub nécessaires aux projets transverses de la régie. - Familier avec le développement en environnement Agile selon la méthode Scrum, l'esprit d'équipe et la cohésion sont des facteurs importants pour vous ; vous avez déjà travaillé en équipe. - Vous êtes un(e) Data Engineer et avez une solide expérience en développement pipelines Data que vous avez concrètement mise à l’épreuve, et une appétence affirmée pour le Cloud. - Vous êtes à l'aise avec les outils de tests automatisés. - La cohérence technique, la qualité du produit, le delivery en cohérence avec les enjeux projet et métier et l’amélioration continue sont les moteurs de votre motivation. Vous êtes capable, pour répondre à des besoins techniques, d’acquérir de nouvelles compétences et ne reculez jamais dans l’accomplissement de nouveaux challenges. - Vous maîtrisez parfaitement les technologies suivantes : Azure Databricks, Scala, Azure Data Factory et SQL. - Vous êtes à l’aise avec Git, AzureDevOps et les outils d’intégration continue en général.
Mission freelance
Architect Data
L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Mission freelance
architecte pyspark - 3 mois
Contrainte forte du projetFort enjeux metier Les livrables sont Package pyspark Dictionnaire / catalog de données Model de données tabulaire Compétences techniques PYTHON / PYSPARK / SPARK - Expert - Impératif Databricks/ datafactory/ azure devops - Expert - Impératif Azure Analysis Services - Expert - Impératif Integration GIT - Expert - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée L'equipe Datafinance utilise actuellement une architecture basée sur Databricks, Azure Blob Storage, Azure Data Factory et Azure Analysis Services pour traiter et analyser ses données financières. Nous cherchons à optimiser les processus de traitement de ces données, en particulier le rafraîchissement des données, pour améliorer la performance et la qualité des analyses. Dans ce cadre, nous recherchons un expert en BI et Data pour une mission de 3 mois. L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 2. Objectifs de la mission L'expert BI et Data sera chargé de : Optimiser le traitement des données du projet Data finance, en se concentrant principalement sur le processus de rafraîchissement des données entra la zone gold et le cube de données. Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. 3. Technologies utilisées L'expert devra maîtriser les technologies suivantes : Databricks (en particulier avec PySpark). Azure Analysis Services (modèle Tabulaire). SQL . Git et Azure DevOps pour la gestion des versions et l'intégration continue. 4. Compétences requises Le candidat idéal doit posséder une expérience avérée dans les domaines suivants : Maîtrise de PySpark : pour le traitement et l'optimisation des données dans Databricks. Expertise en modélisation de données : capacité à concevoir et optimiser des modèles de données pour améliorer la performance et la gestion des données financières. Maîtrise du modèle Tabulaire dans Azure Analysis Services : pour optimiser le rafraîchissement des données et améliorer les performances des cubes. Bonne compétences en SQL 5. Livrables attendus Les livrables de la mission incluent : . Mise en œuvre des optimisations dans Databricks et Azure Analysis Services. Documentation détaillée des modifications apportées et des bonnes pratiques mises en place. Transfert de connaissances aux équipes internes pour garantir une gestion continue des processus optimisés.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes