Trouvez votre prochaine offre d’emploi ou de mission freelance Scala à Paris
Offre d'emploi
Développeur SPARK/ SCALA
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Offre d'emploi
Data Engineer – Microsoft BI (SSAS) & Spark/Scala.
Bonjour, Pour le compte de notre client, nous recherchons un Data Engineer – Microsoft BI (SSAS) & Spark/Scala Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support..
Offre d'emploi
Data Engineer – Microsoft BI (SSAS) & Spark/Scala
Bonjour, Pour le compte de notre client, nous recherchons un Data Engineer – Microsoft BI (SSAS) & Spark/Scala Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support..
Mission freelance
Tech Lead Data Engineer senior
Vous rejoindrez notre Data Factory dont la mission est de concevoir et de déployer des produits analytiques innovants à destination des magasins, des fonctions support, de la logistique et des consommateurs. Face à la montée en puissance des besoins, nous avons adopté une organisation Agile en Domaines/Squads, avec une forte volonté d’industrialiser nos pratiques pour accélérer les livraisons tout en valorisant notre patrimoine de données. En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. 2. Compétences Techniques Requises Nous recherchons un profil senior avec une expérience d’au moins 2 ans en tant que Tech Lead et une certification sur Spark ou Databricks sont exigées. Compétence Expérience minimale demandée : Data Engineering 5 ans Azure 3 ans Architecture Lakehouse 3 ans Databricks 5 ans Spark 5 ans SQL, Python 5 ans Scala 2 ans CI/CD, Azure DevOps 5 ans
Offre d'emploi
Data Analyst Azure (H/F)
En tant que Data Analyst Azure, vous interviendrez au sein d’un pôle Data regroupant différentes compétences. Cette mission sera dans un environnement agile où l’entraide et l’esprit d’équipe sont des points forts de l’organisation. L'utilisation massive de données et le développement d’approches analytiques ne doivent plus avoir de secret pour vous. Vous aurez l’occasion d’intégrer une de nos squad dont la principale mission est de développer des cas d’usage BI, Analytics et Data Science déployés sur notre plateforme Data hébergée sur le Cloud Azure. Pour cela, vous serez amené(e) à : Participer au recueil de besoin et cadrage auprès des utilisateurs finaux Rédiger des contrats d’interfaces pour mise à disposition des données par la source de données Rédiger de la documentation technique et fonctionnelle Modéliser des données Analyser des données à travers Databricks (langage SQL, SCALA) Accompagner des Data Engineers Créer et suivre des tickets JIRA Documenter de notre outil de Gouvernance de données DATA GALAXY Analyser des incidents Une 1ere expérience dans le secteur du retail / bricolage serait appréciée.
Mission freelance
DATA ENGINEER Scala/Spark
CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie
Mission freelance
Développeur Back-End Scala / Rust - MediaHub MAM
Cherry Pick est à la recherche d'un Développeur Back-End Scala / Rust - MediaHub MAM pour l'un de ses clients dans le secteur médias. Dans le cadre de la transformation d'une chaîne de télévision linéaire payante française en un groupe Media International, un chantier ambitieux a été lancé pour développer une nouvelle plateforme de gestion des assets média du groupe, nommée MediaHub. Cette plateforme, construite en interne à partir de logiciels libres avec une méthodologie Agile (Scrum), vise principalement à : Mettre en commun les catalogues de médias entre la France et l'international, entre la TV et le cinéma, et à terme devenir la plateforme de référence du groupe. Remettre à plat l'ensemble des workflows avec les utilisateurs pour une meilleure efficacité opérationnelle (ergonomie et automatisation), une réactivité face aux nouveaux usages (UHD, HDR, IMF, etc.) et une meilleure intégration via des API à l'écosystème Média avec les Majors et les plateformes. D'un point de vue technique, l'application MediaHub MAM, en charge de la gestion des essences média (fichiers audio, vidéo, sous-titres, etc.), est composée d'un ensemble de Micro-Services développés en Scala (~50) et Rust (~5). Ces services sont hébergés dans le Cloud (AWS) et On Premise (VMWare). Un MacBook Pro est fourni à tous les développeurs. Le travail est organisé en sprints de 2 semaines, et l'équipe est constituée de plusieurs Feature Teams complètes (P.O/Devops/Recette/Dev) se partageant un Scrum Master et un UI/UX Designer. Compte tenu des enjeux importants tant au niveau fonctionnel et technique qu'au niveau du calendrier, nous recherchons des candidats : Dynamiques et motivés , capables de voir au-delà de leur tâche affectée, de s'inquiéter de la complétion du récit utilisateur dans son ensemble (incluant la conception, les tests, la cohérence des livrables) et d'être acteur de sa livraison en production. Sérieux et autonomes , permettant d'être un relais efficace des Lead Tech présents dans l'équipe, tout en n'hésitant pas à poser des questions si nécessaires. Les candidats répondront idéalement aux critères ci-après classés par ordre d'importance : Disposer d'au moins une expérience significative (5 ans minimum) dans le développement d'une plateforme composée de micro-services. Le candidat devra être obligatoirement à l'aise avec la programmation concurrente et asynchrone. Avoir une bonne connaissance d'un langage fortement typé (Scala, Java, C#, Haskell, Golang, etc.) et avoir des notions de programmation fonctionnelle (expressions lambda, immutabilité, types algébriques, etc.). Avoir l'envie de monter en compétence sur l'écosystème Scala (cats-effect, zio, etc.). Être capable de répondre à un besoin métier avec une architecture évolutive (DDD, Clean, Onion, Hexagonale) et testable (tests unitaires et d'intégration).
Offre d'emploi
Développeur Java Junior/Confirmé – Finance de Marché (H/F)
Contexte de la mission (POSTE A POURVOIR EN CDI UNIQUEMENT) : Nous recrutons un(e) Développeur(se) Java Junior/confirmé(e) pour rejoindre grand groupe bancaire parisien. Vous intégrerez le pôle Pricing & Analytics , en charge du développement et de la maintenance des librairies financières utilisées pour le pricing des produits dérivés sur les marchés Equity, Fixed Income et Commodities . Accompagné(e) par des experts techniques et fonctionnels, vous contribuerez au développement des outils de calcul à destination des métiers Front Office et Risques . Vos missions : Participer au développement et à l'évolution des librairies de pricing Contribuer à l’intégration de ces librairies dans les différents outils du SI Collaborer avec les équipes IT, Quants et Risques pour assurer une bonne intégration des solutions Travailler sur des chaînes de calculs performantes et robustes, capables de traiter de grands volumes de données
Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Mission freelance
Data engineer
Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.
Mission freelance
Data Engineer AWS / Databricks
Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre
Mission freelance
AWS engineer / Architect
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.