Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks à Paris

Offre d'emploi
INGENIEUR CLOUD DATA AZURE DEVOPS (H/F)
ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la mise en place de projets data et big data, à déployer les projets dans le cloud, à apporter des solutions autour de la sécurité et des API Web, à construire et à industrilaiser des architectures cloud : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 4 à 10 ans minimum en ingénierie Big Data Expert(e) en BigData Az DataLake, Az EventHub, Databricks, ADF, Microsoft Cloud Azure, Infrastructure as a code (ARM, YAML), Intégration/déploiement continu (Git, Az DevOps) Habile avec AZURE AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Mission freelance
Testeur Data
Pour le besoin de mon client, je suis à la recherche d'un Testeur Data Être le testeur référent de l’équipe Big Data Porter les chantiers d’automatisation de test, cahier de recette, TNR sur Squash... ... .... ... .... ... .... ... ... ... ... .. ... .. .. ... .. ... ... ... ... ... ... .. .. ... ... ... ... ... ... .. . . .. ... .. .. .. .. .. .. .. .. .. .. .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... . ...

Offre d'emploi
Ingénieur Data Senior - Azure
Ingénieur Data Senior – Azure | Spark | Microsoft Fabric Localisation : Paris (hybride) Nous sommes un partenaire de référence de Microsoft , spécialisé dans la mise en œuvre de solutions cloud et data pour des clients grands comptes en Europe. Grâce à notre expertise approfondie de l’écosystème Microsoft, nous accompagnons nos clients dans leur transformation digitale, en concevant des plateformes de données modernes, scalables et sécurisées. Dans le cadre de notre développement, nous recherchons un(e) Ingénieur(e) Data Senior expérimenté(e) sur Apache Spark, Azure Synapse Analytics, Databricks et Microsoft Fabric. Ce rôle technique et orienté client vous amènera à piloter la conception et la mise en œuvre de solutions data de bout en bout dans un environnement cloud Azure. Vos missions Concevoir et développer des plateformes data modernes sur le cloud Azure, avec Databricks, Synapse et Microsoft Fabric. Développer des pipelines de données performants et scalables avec Apache Spark (PySpark, SQL ou Scala). Mettre en œuvre des processus d’ingestion de données structurées, semi-structurées et non structurées. Définir des modèles de données robustes et des logiques de transformation pour les cas d’usage analytiques. Orchestrer les flux de données via Azure Data Factory ou Microsoft Fabric Pipelines. Garantir la qualité, la gouvernance, la sécurité et la traçabilité des données via les services natifs d’Azure. Collaborer avec les architectes, les analystes et les parties prenantes pour aligner les solutions techniques sur les enjeux métiers. Encadrer des profils plus juniors et participer activement au partage de connaissances internes. Contribuer aux avant-ventes, aux réponses à appels d’offres et aux ateliers clients. Assurer une veille constante sur les nouvelles technologies du domaine data & cloud. Compétences techniques requises Maîtrise avancée d’Apache Spark (idéalement PySpark) et optimisation de performances. Expérience pratique sur Microsoft Fabric (Lakehouse, Pipelines, Notebooks...). Expertise sur Databricks (workflows de développement, Delta Lake, Unity Catalog…). Compétence en orchestration avec Azure Data Factory et/ou Fabric Data Pipelines. Bonne connaissance des architectures Lakehouse, modélisation dimensionnelle, et bonnes pratiques ELT/ETL. Connaissance des pratiques DevOps dans Azure (CI/CD, Azure DevOps). Compréhension des enjeux de gouvernance des données, sécurité et gestion des accès (RBAC) dans Azure. Atouts supplémentaires Expérience préalable dans un cabinet de conseil ou un environnement de services professionnels. Maîtrise de Power BI, notamment dans un contexte Microsoft Fabric. Familiarité avec les outils d’Infrastructure as Code (Bicep, Terraform). Connaissances des technologies temps réel : Azure Event Hub, Stream Analytics ou équivalents. Expérience de collaboration avec des équipes Data Science ou sur des pipelines de Machine Learning. Profil recherché Excellente communication, à l’aise pour vulgariser des concepts techniques auprès d’un public non technique. Approche orientée conseil, avec une capacité à identifier les besoins métiers et proposer des solutions data sur mesure. Esprit d’équipe, proactivité, rigueur et autonomie. Expérience en environnement agile ou orienté livraison. Maîtrise du français et de l’anglais (à l’écrit comme à l’oral).
Mission freelance
Tech Lead IA
Bonjour, Pour le compte de l'un de mes clients, je suis à la recherche d'un Tech Lead IA. Dans le cadre de développement de projets au forfait mon client a besoin urgement d'un TECH LEAD IA. PRINCIPALES ACTIVITES : >Contribution à l’analyse et à la structuration de cas d’usage IA >Participation à la conception de l’architecture technique, au chiffrage et à la planification des projets IA >Participation et animation des points avec le client pour cadrer et suivre les projets. >Rédaction de la documentation technique des projets IA Technos devant être maîtrisées : Azure, Databricks Apps, Genie, MS Copilot Studio/foundry Ponctuellement : conseil technique sur les architecture AI (LLM, RAG, Genie, Databricks Apps, Azure…

Offre d'emploi
Data Engineer
Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Mission freelance
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Introducing Sartim Solutions – Your Remote Tech Partner from Pakistan
- LRC Consulting ne répond plus...
- Rémunération Project Manager BTP pour Aéraunautique/Nucléaire (Paris)
- 3 mois intercontrats, 6 entretiens client final 6 echecs
- Mutuelle et retraite
- opportunité de mission en portage salariale après 7 mois de chomage