Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks

Votre recherche renvoie 38 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance
CDI

Offre d'emploi
Développeur DataBricks

VISIAN
Publiée le
Agile Scrum
Azure
Databricks

3 ans
28k-46k €
Lyon, Auvergne-Rhône-Alpes

Notre client, un grand compte du secteur de l'énergie, souhaite renforcer les capacités de développements d’une des feature team sur la technologie de développement Databricks (Databricks, Python, Spark SQL) dans un environnement 100% Cloud Azure (AKS, Docker, Azure Functions, Web API, Azure API manager, REDIS cache, Event hub, StreamAnalytics). Une expérience Azure passée serait appréciée. Nous sommes à la recherche d'un profil de développeur Databricks H/F. Les principales activités sont : Développements de pipelines Data permettant la construction et l’évolution de notre Datalake : Azure Databricks, Python, Spark SQL, Azure Blob Storages Participation aux déploiements sur les environnements de test et de production Maintien en condition opérationnelle des éléments logiciels en production Interaction avec les équipes de développement Web, IoT, SQL et Wonderware En fonction des autres compétences du candidats, d’autres activités pourraient être : Participation à des réunions de conceptions et de chiffrages Participation à des réunions de prises de décisions techniques Conseils techniques au Tech Lead / Architecte de l’équipe « Data » et de la plateforme Le candidat devra pouvoir s’intégrer dans un projet dynamique en méthodologie agile et dans une équipe de grande taille. Contexte : La plateforme digitale dédiée aux énergies renouvelables. Ce nouvel outil de gestion des données est connecté à l’ensemble des centrales de production d’énergies renouvelables du Groupe à travers le monde pour améliorer les performances des parcs éoliens et solaires. Avec cette plateforme, notre client souhaite faciliter la prise de décision des exploitants, permettre une maintenance prédictive et améliorer la rentabilité des installations. Contexte technique : Il s'agit d'une plateforme contenant de nombreux modules différents tous basés sur des technologies Schneider ou Microsoft. Il s’agit d’une plateforme totalement hébergée dans le Cloud et déployée dans une vingtaine de pays.

Freelance
CDI

Offre d'emploi
Data engineer databricks

VISIAN
Publiée le
Databricks
PySpark
Python

1 an
40k-60k €
Bagneux, Île-de-France

Le data engineer intègre une équipe en charge du lakehouse. De nombreuses challenges techniques sont attendus, la maitrise de l'outil DATABRICKS est un pre requis. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer) -Est en relation avec les équipes infrastructure afin d'assurer le cadrage et le déploiement des solutions valides -Support aux équipes consommatrices -Analyse d'anomalie et proposition solution court / moyen terme - Developpement sous Databrick (Python / SQL / Spark / Airflow) -Est force de propositions techniques, en capacité de faire un état des lieux sur les normes et process de devt et faire appliquer les recommandations.

CDI
Freelance

Offre d'emploi
Data Engineer Databricks

KLETA
Publiée le
Apache Spark
Azure
Azure Data Factory

3 ans
10k-68k €
Paris, France

Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.

Freelance
CDI

Offre d'emploi
Data Engineer | Pyspark | Databricks | Azure

skiils
Publiée le
Azure
Databricks
Microsoft Power BI

1 an
38k-200k €
Île-de-France, France

Au sein de l'équipe Big Data, l'équipe Engineering est responsable de l'alimentation du data lake, du delivery projet, et du fonctionnement des applications en production. C'est pour rejoindre cette équipe que nous recherchons un Développeur Big Data « Maintenance ». Le Data Engineer Senior « Maintenance » prend en charge la maintenance corrective & évolutive de toutes les applications Big Data déjà en fonctionnement en production pour couvrir les besoins métier Il participe également à la construction du socle technique Big Data. Il a pour missions principales : · De développer les évolutions fonctionnelles & techniques des applications Big Data en fonctionnement en production métier, et notamment : · passer de la donnée brute à de la donnée propre, exposée sous forme de tables requetables dans le datalake (inférer les schémas de données, nettoyer et normaliser les données, publier les données) · consolider ces données au fur et à mesure de leur alimentation récurrente dans le data lake · les exploiter pour atteindre la finalité business (exposition de business view, réintégration des résultats dans le SI, Web Services de scoring, …) · De gérer avec l'OPS responsable du suivi de production la transition en BAU de tous les projets métier (transfert de connaissance depuis les développeurs projets) · De gérer (support niveau 3) les analyses & reprises sur incidents en production des traitements Big Data & Web Services de toutes les applications en production, en coordination avec l'OPS assurant le suivi de production global, afin d'assurer la meilleure qualité de service des applications Big Data pour les métiers. (les développeurs projets originels restant support Niveau 4) Selon son profil, le Développeur Big Data pourra même : · piloter fonctionnellement l'OPS pour coordonner le bon fonctionnement en production des applications Big Data au global · De contribuer à la création du socle technique Big Data (librairies de fonctions, features communément utilisées avec les data scientists…) et industrialiser le cycle de développement de l'équipe · De mettre en place et de garantir le respect dans la durée d'un processus qualité sur l'ensemble du cycle de DEV (documents, tests unitaires / intégration / fonctionnels, commentaires, versionning, etc.) · D'accompagner les développeurs plus juniors de l'équipe (coaching, code review, pair programming…)

CDI

Offre d'emploi
Databricks Solution Architect

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

52k-85k €
Paris, France

Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Sr. Data Architect AZURE (Databricks, ADLS storage, SQL DB, ADF and Power BI) (h/f)

emagine Consulting SARL
Publiée le

10 mois
500-550 €
France

emagine is looking for a Senior Data Architect AZURE for its international client in the automobile sector Location : Lyon Onsite : 3 days a week Languages : Fluent in French and English Team : Marketing and communication *** suite Azure autour d’Analytics ***databricks expert ***le design de solution Role : responsible for the design, documentation of the solution Data Architect Azure with a good overall understanding of available services in the Azure Analytics stack. Work with DPO, Data Analyst, Data Engineer & Data Scientist and Architect community to define architect with right quality Technical lead and discussion with Business Stakeholders and Enterprise Architecture. Oversee data management process and provide guidance and direction to development teams Responsabilities : Data Architecture design Develop, document and maintain logical and physical data models. Skills and Profile : Team Player and able to work in a big structured company Experiences in Databricks ( EXPERT ), ADLS storage, SQL DB, ADF ( Azure Data Factory ) and Power BI Data Architecture design Azure Advanced Analytics technologies and frameworks Programming language: Python, Pyspark Agile ( Group discussions every 10 weeks ) You have excellent communication skills in French and English (C1 level) For full project details please apply with your latest CV or send a message to Sumi at this mobile phone number +-téléphone masqué-

Freelance

Mission freelance
Data Engineer - Databricks

TEOLIA CONSULTING
Publiée le

1 an
Paris, France

LA MISSION Conception et développement des pipelines de données : Concevoir et développer des pipelines de données efficaces et évolutifs sur la plateforme Databricks, en utilisant des langages de programmation Python(Pyspark) et SQL. Optimisation des performances : Optimiser les pipelines de données déjà développés pour garantir des performances optimales, savoir mettre en place du partitionnement. Proposer des améliorations sur la gestion des clusters, de l’ordonnancement des traitements. Documentation et standardisation : Contribuer à la documentation et à la standardisation des architectures, des processus et des bonnes pratiques pour assurer la cohérence et la pérennité des solutions mises en place. Formation et support : Fournir une aide et un support aux autres membres de l’équipe sur l’utilisation de Databricks et des pipelines de données développés. COMPÉTENCES ATTENDUES Excellente maîtrise de Databricks, PySpark et de SQL. Expertise avancée dans la mise en place de pipelines de données ETL/ELT (Azure data factory). Connaissance approfondie des concepts de Big Data et des architectures distribuées. Expérience démontrée dans des migrations de systèmes legacy vers Databricks. Familiarité avec les outils de gestion de versions comme Azure Devops ou Git. Capacité à travailler dans un environnement Agile. Anglais requis

Freelance

Mission freelance
Consultant AZURE DATABRICKS - 100% télétravail

K2 Partnering Solutions
Publiée le
Azure
Databricks

12 mois
500-520 €
Berlin, Allemagne

Description : Nous recherchons un consultant certifié Databricks pour gérer, surveiller et améliorer la plateforme Databricks de notre client. Les responsabilités comprennent l'assurance de la santé de la plateforme, la satisfaction du client, les configurations du système et le dépannage. ATTENTION : MISSION 100% en ANGLAIS : anglais courant exigé et CV en anglais exigé. Date de début : 1er avril 2024 Date de fin : décembre 2024 + possibilité d'extension Secteur d'activité du client: Banque/ Assurance

Freelance

Mission freelance
Consultant Databricks /Azure

TANEO Consulting
Publiée le

1 an
400-500 €
Île-de-France, France

Notre application de gouvernance des modèles de ML a pour but d’interroger des ressources Azure Machine Learning, Azure Databricks, AWS Databricks et AWS Sagemaker pour récupérer les métadonnées des modèles d’IA hébergés sur ces ressources, puis de stocker ces métadonnées et réaliser une API pour permettre à un front de consommer ces datas pour les afficher dans un dashboard, qui permettra le suivi des modèles (mise à jour, utilisation, performance ). Notre plateforme LLM Hub héberge et met à disposition des équipes de développement l’accès à des LLMs tels que OpenAI / Mistral via Azure, Claude via AWS Bedrock, voir d’autres par la suite. La plateforme a pour objectif de centraliser la consommation des modèles, gérer le reporting de consommation des applications et optimiser les coûts via du provisionned throughput.

Freelance

Mission freelance
Data Ingénieur Spark scala Databricks

DATSUP
Publiée le

1 an
440-590 €
Paris, France

Nous recherchons un Data Engineer Sénior avec une forte expertise sur Azure, Databricks, Spark, Scala.  Développement et l’implémentation de solutions Big Data Analytics  Analyse du besoin, étude d'impacts et conception de la solution technique  Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, )  Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake  Développements de notebooks (ex : Databricks) de traitements avancés des données  Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL)  Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, .)  Revue de code  Réalisation de tests unitaires  Maintenance corrective et évolutive  Livraison dans un environnement Devops, CI/CD et outils associés 3 - Compétences techniques requises  Expérience Data minimum 5 ans  Azure minimum 3 ans  Expérience architecture Lakehouse minimum 2 ans  Databricks minimum 5 ans  Spark minimum 5 ans  Scala minimum 5 ans  Maitrise de CI/CD, Azure DevOps minimum 3 ans  Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an

Freelance

Mission freelance
Développeur Databricks (H/F)

Insitoo Freelances
Publiée le
Databricks
Python

2 ans
350-500 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Databricks (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Fonctionnement : 2-3 jours de télétravail + présentiel sur site à Lyon Les missions attendues par le Développeur Databricks (H/F) : Développements de pipelines Data permettant la construction et l’évolution de notre Datalake : Azure Databricks, Python, Spark SQL, Azure Blob Storages • Participation aux déploiements sur les environnements de test et de production • Conseils techniques au Tech Lead / Architecte de l’équipe « Data » et de la plateforme Le candidat devra pouvoir s’intégrer dans un projet dynamique en méthodologie agile et dans une équipe de grande taille. Compétences : - Databricks - Python - Travailler en SCRUM - Environnement AZURE

Freelance

Mission freelance
Un Data Analyst (Azure Databricks, Synapse, Power BI, Python, Pyspark) Sur Lyon /2j TT

Smarteo
Publiée le
Microsoft Power BI

6 mois
100-500 €
Lyon, Auvergne-Rhône-Alpes

Smarteo recherche pour l'un de ses clients, Un Data Analyst (Azure Databricks, Synapse, Power BI, Python, Pyspark) Sur Lyon /2j TT Description: projet autour de la gouvernance & la qualité de la donnée d'un client industriel stack technologique : Azure Databricks, Synapse, PowerBI, Python Si vous êtes disponible intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word. Smarteo recherche pour l'un de ses clients, Un Data Analyst (Azure Databricks, Synapse, Power BI, Python, Pyspark) Sur Lyon /2j TT Description: projet autour de la gouvernance & la qualité de la donnée d'un client industriel stack technologique : Azure Databricks, Synapse, PowerBI, Python Si vous êtes disponible intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

CDI

Offre d'emploi
Data Engineer Databricks (H/F)

CELAD
Publiée le

35k-40k €
Toulouse, Occitanie

Nous sommes à la recherche d'un(e) Data Engineer Databrickspour intervenir sur l'un de nos projets dans le domaine de la météorologie à Toulouse. Vos missions principales seront : Concevoir, développer et maintenir des pipelines de données robustes pour l'analyse de données volumineuses.Collaborer avec les équipes interfonctionnelles pour comprendre les besoins métier et traduire ces besoins en solutions techniques.Mettre en oeuvre des solutions de maintenance prédictive sur des équipements embarqués en utilisant des modèles d'apprentissage automatique et des techniques d'analyse de données.Assurer la fiabilité, la performance et la sécurité des plateformes de données. Compétences nécessaires : Databricks, Python, PySpark, Cloud On premise.

CDI

Offre d'emploi
Data Architect (H/F)

CELAD
Publiée le
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Architect pour intervenir chez un de nos clients. 💻💼 Votre mission 🎯 : Vous arrivez avec votre expertise technique et vous plongez dans le développement. Vous serez là, au cœur de la guilde des architectes, assurant la bonne marche du flux de données et donnant un coup de main aux équipes de développement. C'est vous qui aurez la responsabilité de donner vie à la solution dans votre domaine, en documentant chaque étape du processus. Et puis, vous avez l'habitude de façonner, documenter et garder en bon état les modèles de données, tant logiques que physiques.

Freelance

Mission freelance
Data Engineering Senior H/F

LeHibou
Publiée le
Azure
Databricks
PySpark

12 mois
550 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un Data Engineering Senior H/F Descriptif de la mission: Notre client, acteur majeur des énergies, cherche un consultant Data Engineer Senior pour renforcer son équipe. Objectifs et livrables Nous recherchons une prestation de Data Engineering avec des compétences sur Python/PySpark/Databricks sous un environnement Azure Cloud. Le prestataire sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : - Collecter les exigences des métiers et des utilisateurs - Concevoir l'architecture de données - Concevoir les pipelines de données - Mettre en production l'architecture - Assurer la maintenance et l'évolution de l'architecture Contributions transverses : -Collaboration et participation aux activités au sein du Chapter -Assister aux réunions « Communities of Practice (CoPs) », -Contribuer aux projets transversaux tels que les « starter-kits », « l’inner-sourcing », etc.

Freelance
CDI

Offre d'emploi
Développeur MDM

VISIAN
Publiée le
Apache Spark
AWS Cloud
Databricks

1 an
10k-60k €
La Défense, Île-de-France

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT. Dans le cadre de ses projets, nous recherchons un développeur MDM. L’objectif est de développer une plateforme dite « MDM » basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans différentes entités locales B2B. Son objectif principal est de capturer diverses métriques sur l'électricité et le gaz (allocation, consommations, point de livraison….). Cette plateforme est déjà déployée en France et l'objectif est d'étendre le périmètre à d'autres pays B2B. L’équipe principale MDM a principalement 2 missions : • Construire et améliorer le cadre commun (volet fonctionnel et technique pur) • Accompagner le déploiement du MDM dans différents pays.

Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous